首页 报纸 正文

グーグルは今月中旬、その年次開発者大会I/Oで、長年にわたって世界の検索分野の最大の変革を発表した。最新のAIモデルを検索エンジンに埋め込み、ライバルのマイクロソフトとOpenAIを一度に追いかけようとした。
しかし、グーグルという「AI Overview(以下、「AI概説」)」というAI検索機能がオンラインになると、「チーズを接着剤でピザに固定することをお勧めする」「石を摂取して栄養を得ることを推奨する」など、一連のでたらめな回答がグーグルを気まずいだけでなく、ネット上でも波紋を広げている。
これに対し、グーグルのスポークスマンは、グーグルはこれらの「孤立した」例を利用してシステムをより広範に改善していると述べた。
実際、毎日経済新聞の記者は、グーグルのAI製品が初めて「転覆」したわけではないことを発見した。昨年、ターゲットのChatGPTを最初に押したチャットロボットBardは、demoビデオで事実上の誤りを犯し、市場価値を一夜にして暴落させた。この間、Geminiはほとんどの場合白人画像を生成できず、歴史上の人物の描画も正確ではなく、ネット上で波紋を広げている。
現在、グーグルの「AI概説」が直面している気まずい点は、以前はAIが生成した情報が誤りであれば、検索したサイトに責任を「なすりつける」ことができたが、今ではAIが生成したものであっても、グーグルは虚偽の情報と誤った情報の責任を自分で負わなければならないと指摘している。エラーやストリーミングのほか、グーグルの「AI概説」も「規模化した盗作」などのリスクが指摘されている。
オンラインで「花式転覆」し、「跳ね橋」まで教唆する
グーグルは、「AIの概要」を使用することで、ユーザーはGeminiの強力な能力から利益を得ることができ、検索情報の一部の仕事を減らすことができると述べた。
しかし、「AI概説」は検索分野を覆す暇もなく、笑えない「笑い」を多く作っている。
科学技術メディアThe VergeのジャーナリストKylie Robison氏は、署名記事の中でこの新機能について皮肉な例を挙げた。記事によると、ユーザーが自家製ピザを食べようとしたとき、チーズが滑り落ちる問題に遭遇し、落胆したユーザーがグーグルの検索ソリューションを検索し始めたが、AI Overviewsの回答は、「糊をつける」というもので、「Elmer's糊を1/8杯ほどソースと混ぜる。無毒糊でいい」と“丁寧”に“操作方法”を示している。糊は確かに癒着問題を解決することができるが、これはGeminiが“幻覚”(Hallucination)を起こした結果である可能性が高い。
これは、「AI検索」機能によって最近発生した多くのエラーの1つにすぎません。例えば、「AIの概要」では、ビタミンやミネラルを補うために、1日に少なくとも1つの石を食べることをお勧めします。
また、「AI概要」では、洗濯機を洗浄するために「フッ素系漂白剤と白酢」を使用することをユーザーに伝えていますが、この2つの成分が混合すると有害な塩素ガスが発生します。さらに奇妙なことに、ユーザーが「がっかりしている」と表現すると、「AI概要」はなんと、「あるRedditユーザーがゴールデンゲートブリッジから飛び降りてほしいと提案した」と述べた。
健康を害する提案は人間に限らない。あるユーザーは、「犬を蒸し暑い車内に残しておくのは安全か」と質問した。「AI概説」の回答は、「犬を蒸し暑い車内に残しておくのは安全だ。特に蒸し暑い天気の中で」というものだった。
ニューヨーク・タイムズ紙は、「AI概要」機能は、グーグルのGemini大言語モデルが生成したコンテンツとネットワーク上のリアルタイムのリンク断片を結合し、ユーザーに与えた結果はソースを参照することができるが、ソースコンテンツの正否を識別することはできないと報じた。
The Vergeの報道によると、ピザに糊をつける答えは「fucksmith」というユーザーが10年以上前にRedditの投稿に寄せたコメントに基づいているようで、彼らは明らかに冗談を言っている。
外国メディアによると、このようなでたらめな構造は、グーグルがより厳しいテストを受けるまで「AI概要」機能の削除を検討するのに十分であるはずだという。「AIの概要」は、最悪で危険な提案を提供するだけでなく、グーグルの評判にも損害を与える可能性があります。言い換えれば、優れたAIは適切な内容を識別することができ、この内容を分析して採用するかどうかを決定することができる。
グーグル:「孤立」の例を利用して製品を改良しているが、AI「サイケデリック」に解決策はない
グーグルのスポークスマンは声明の中で、「AIの概要」のほとんどの検索結果は「高品質な情報、そしてネット上でソースを追跡できるリンク。多くの例が一般的ではない問題であり、また、いくつかの例が改竄され、いくつかは再現できないことが分かった」と述べた。
同スポークスマンはまた、グーグルは「迅速に行動し、その政策に基づいて、適切な状況でいくつかの『AIの概要』から得られた答えを削除し、これらの『孤立した』例を利用してシステムをより広範に改善し、その中のいくつかの改善された内容が発売され始めている」と述べた。
科学技術メディアのThe Vergeは先週、グーグルのサンダル・ピチャイCEOがインタビューで、これらの「AI概説」機能による「幻覚」は大型言語モデルの「固有の欠陥」であり、大型言語モデルはまさに「AI概説」機能の核心技術であることを認めたと報じた。ピチャイ氏によると、この問題には現在解決策がない(is still an unsolved problem)という。
AIの「幻覚」とは、AIが情報を処理し生成する際に、発生しない事実やデータを誤って作成し、ユーザーをミスリードすることを意味する。この問題はグーグルのAIシステムだけでなく、他社のAI製品にも共通している。
ピチャイの率直な態度は社会各界で広く議論されている。しかし、ピチャイはこれらの誤りの深刻さを薄めたようだ。彼は、「『AI概説』機能は時には間違っているが、それが役に立たないという意味ではない。この機能を見る正しい方法ではないと思う。私たちは進展したのか。はい、間違いない。昨年に比べて、私たちは事実の正確性の指標に大きな進歩を遂げた。業界全体が改善しているが、問題はまだ完全に解決していない」と述べた。
毎日経済新聞の記者は、実は「AI概説」はグーグル初の「転覆」AI製品ではないことに気づいた。
2023年2月、新生ChatGPTに対抗するため、グーグルはチャットロボットBardの発売を発表したが、公式に発表されたdemoビデオでBardはジェームズ・ウェバー宇宙望遠鏡に関する質問に答えた際に誤った答えを出した。今年2月、グーグルは更新されたAIチャットロボットGeminiを発表したが、ユーザーはすぐに、このシステムがほとんどの場合白人画像を生成できず、歴史上の人物の描画も正確ではないことに気づいた。
最後の20%の差を埋めることが、「AIの概要」の参加者規模が10億人を突破する鍵となる
グーグルの「AI概説」機能の気まずい点は、以前はAIが生成した情報が誤りであれば、検索したサイトに責任を「なすりつける」ことができたことだと指摘する見方がある。また、以前はグーグルと他のコンテンツ提供サイトは共生・ウィンウィンの関係だったが、今ではグーグルはこれらのサイトのトラフィックを遮断し、ユーザーは直接「AI概要」から与えられたコンテンツから結果を得て、これらのサイトは純粋な供給者になり、グーグルの「AI概要」に引用されるのは難しい。
一連のエラーやインターセプトのほか、グーグルの「AI概要」も他の問題やリスクがあると指摘されている。例えば、その「AI概要」は常に異なるサイトからの内容を抄録し、少し修正しており、この行為は「規模化した盗作」とも批判されている。
人工知能の専門家でニューヨーク大学神経科学名誉教授のゲイリー・マーカス氏(Gary Marcus)によると、多くのAIメーカーは夢を「売り込んでいる」としており、この技術の正解率が最終的に80%から100%に向上すると信じている人が多いことを期待している。マーカス氏は、80%の正確率を初歩的に実現するのは比較的簡単だと強調した。その中には大量の人類データが含まれており、その正確率は天然にこの区間にあるからだ。しかし、この最後の20%の差を埋めることは非常に挑戦的だ。実際、マーカス氏はこの最後の20%が袋小路である可能性が高いと考えている。
グーグルは「AI概要」を発表した際、この機能が他の国に普及するにつれて、今年末までに「AI概要」のサービス参加者の規模は10億人を超えると述べていた。しかし、マーカス教授が言うように、グーグルが「最後の20%コンテンツ正解率」を保証できるかどうかが、その「AI概説」の視聴者規模が10億人を超えるかどうかの鍵となる。
実は、グーグルは2022年末にOpenAIがChatGPTを発表して一躍有名になって以来、AIをその検索技術に統合する圧力に直面してきた。しかし、グーグルは、従来のソフトウェアのようにプログラミングするのではなく、オープンなネットワークから取得した大量のデータから学ぶ大規模な言語モデルに挑戦している。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

无理可退退d 新手上路
  • 粉丝

    0

  • 关注

    0

  • 主题

    0