首页 报纸 正文

Metaの首席人工知能(AI)科学者ヤン・リークン(Yann LeCun)氏は、既存の大型言語モデル(LLM)では人間のような推理や計画能力は永遠に実現できないと考えている。
楊立昆氏は、大型言語モデルについて「論理の理解は非常に限られており、物質世界を理解しておらず、永続的な記憶がなく、いかなる合理的な用語定義で推理することも、階層計画を行うこともできない」と述べた。
最新のインタビューでは、既存の先進的な大型言語モデルに頼って人間の知恵に匹敵する汎用人工知能(AGI)を創造することはできないと考えている。これらのモデルは正しい訓練データを得た場合にのみ正確にヒントに答えることができるため、「本質的に安全ではない」からだ。
具体的には、楊立昆氏は、現在の大型言語モデルは自然言語処理、対話理解、対話対話対話、テキスト創作に優れた表現を持っているが、それは依然として「統計モデリング」技術にすぎず、データ中の統計法則を学習することで関連任務を達成し、本質的には理解と推理能力を持っているわけではないと考えている。
楊立昆本人は新世代の人工知能システムの開発に努めており、同システムが人間の知能レベルを持つ機械に動力を提供し、機械の中で「スーパー知能」を創造することを望んでいる。しかし、このビジョンは10年かかる可能性があると指摘した。
ワールドモデリング方法
楊立昆はMetaの基礎人工知能研究(Fair)実験室で約500人のチームを管理している。彼らは「常識」を形成できる人工知能の創造に力を入れており、人間と同様の方法で世界の働き方を観察し体験し、学習し、最終的には「世界モデリング」と呼ばれる汎用人工知能(AGI)を実現することに力を入れている。
2022年、楊立昆は初めて「世界モデル化」のビジョンに関する論文を発表し、その後Metaはこの方法に基づいて2つの研究モデルを発表した。
楊立昆氏は最近、Fair実験室は人工知能が最終的に人間の知能レベルに達することを期待するさまざまなアイデアをテストしているが、「この中には多くの不確実性と探求があり、私たちもどちらが成功し、どちらが最終的に選ばれるか判断することはできない」。
また、「私たちは次世代人工知能システムの波風の先にいる」と強く考えている。
内部矛盾
しかし、この科学者の実験的ビジョンはMeta社にとってコストの高い賭けであり、現在の投資家は人工知能投資の迅速なリターンを見たいと考えているからだ。
そのため、Meta社内でも「短期収入」と「長期価値」に関する考え方の違いが出ている。この点の違いは、昨年のGenaIチームの設立から明らかになった。
Metaは2013年に人工知能の研究分野を開拓するためにFairラボを設立し、この分野のトップ学者を招聘した。しかし2023年にはMetaは、Fairラボから多くの人工知能研究者やエンジニアを掘り出し、Llama 3モデルの仕事をリードし、新しい人工知能アシスタントや画像生成ツールなどの製品に統合する新しいGenaIチームを単独で立ち上げました。
一部の内部関係者は、GenaIチームの設立は、楊立昆とMeta最高経営責任者ザッカーバーグの両者が理念的に何らかの矛盾を抱えているからかもしれない。投資家の圧力と利益の圧力の下で、ザッカーバーグは人工知能のより多くの商業化応用を推進してきた。Fairラボ内のアカデミック文化は、Metaを生成型人工知能ブームの中でやや「弱い」状態にしている。
楊立昆がこの観点を発表した際、Metaとその競合他社は、OpenAIが先週発表したより速いGPT-4 oモデルを含む、より強化されたバージョンの大規模な言語モデルを推進している。グーグルは新しい「マルチモーダル」AIアシスタントProject Astraを発表した。Metaは先月、最新のLlama 3モデルも発売した。
これらの最新の大型言語モデルについて、楊立昆氏は「大型言語モデルのこの進化は浅はかで限られており、人間のエンジニアが介入してこれらの情報に基づいて訓練を行ってこそ、モデルは人間のように自然に結論を出すのではなく学習する」と考えている。これは自宅のLlamaモデルの顔を殴っていることにも相当する。
観念的には矛盾があるが、楊立昆氏は依然としてザッカーバーグ氏の核心顧問の一人であり、人工知能分野で大きな名声を得ているからだと関係者は明らかにした。
CandyLake.com 系信息发布平台,仅提供信息存储空间服务。
声明:该文观点仅代表作者本人,本文不代表CandyLake.com立场,且不构成建议,请谨慎对待。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

fanbozoo 新手上路
  • 粉丝

    0

  • 关注

    0

  • 主题

    0