首页 观点 正文

第二次世界大戦の暗号解読者はかつて英国の田舎の荘園でナチスのエンニグマ暗号機を解読したが、今では世界各国の指導者がここで、深刻な脅威にもなると考えている技術がもたらすリスクを低減するために共同で努力することを約束している。
リーダーたちは、最先端の人工知能(AI)がサイバーセキュリティやバイオテクノロジーなどの分野で壊滅的なリスクをもたらし、人間の支配からも離脱する可能性があると述べている。
英国の科学、革新、技術大臣ミッシェル・ドンラン(Michelle Donelan)氏は、同荘園で働いていた暗号解読者の言葉を引用し、「SF小説に真剣に取り組む価値があることもある」と述べた。
今回の2日間のサミットは水曜日にロンドン郊外の約40マイルで開幕し、サミットの開幕式で発表された声明の中で、米国、中国、その他20カ国は協力を強化し、将来のAIシステム(モデルと呼ばれる)がもたらすリスクを共同で評価し、これらのシステムの配置を管理するための法的枠組みを制定することを約束した。これらのシステムは現在のAIシステムよりも強力である。
共同声明では、「これらのAIモデルの最も重要な能力は、意図的であれ意図的であれ、深刻であり、さらには壊滅的な被害をもたらす可能性がある」と述べている。声明では、強力なAIシステムが不良分子に悪用されたり、人間が完全に理解できず予測が困難でAIシステムの制御を失ったりする可能性があるためだと述べている。
このコミットメントは、強力な新しいAIモデルが人類に生存リスクをもたらす可能性があるという警告に対して国際社会がAIリスクに対して重要な声明を出すのは初めてだ。
これらの警告をどのように重視すべきか、どのように対応すべきかについての議論は、今回の会議の主な議題であり、参加者にはハリス米副大統領(Kamala Harris)率いる米国代表団と、マースク(Elon Musk)とOpenAI最高経営責任者Sam Altmanを含むAI企業をリードする幹部が含まれている。
この2人の科学技術幹部は、AIの潜在的な破壊能力について警告したことがある。彼らが率いる会社は、それぞれのAIを構築しようと努力している。
Meta Platforms政策執行官、英国の元副首相クレイグ(Nick Clegg)を含む他の人々は火曜日に公開の場で、これらの推測されたリスクは、AIが作った偽りの動画から選挙を守るなど、現在の問題に対する人々の注意力を分散させていると述べた。
クレイグは言った:&quot ;将来のことを心配するのに時間がかかりすぎると、目の前のリスクへの関心が減少します」
水曜日から2日間の英国AIセキュリティサミットで、世界各国の指導者は人工知能のリスクを減らすために共同で努力することを約束した。
米国は水曜日、商務省に所属するAIセキュリティセンターを設立すると表明し、英国の同業者と協力してAIシステムの能力を測る基本的な基準を制定し、バイデン政府の新行政令に基づいてAI会社の報告書のデータを収集することを約束した。
英国はまた、来年に韓国とフランスでAIセキュリティサミットを開催する長期計画を発表した。
西側の役人や業界幹部は、中国が今回のサミットに参加することは注目に値することだと考えている。AIが世界超大国間の軍備競争の一部になる可能性を懸念する人もいるからだ。
英国のスーナク首相(Rishi Sunak)は先週の演説で、「世界をリードするAI大国のすべてを参加させることを少なくとも試みなければ、厳粛なAI戦略は生まれない」と述べた。
中国科学技術部の呉朝暉副部長は今回のサミットの開幕式で、中国は国際社会のAIテストと評価システムの構築を支援していると述べた。
長い間、機械がもたらすことができないAI終末論の脅威は、流行文化の中で魅力的な議題だった。しかし、OpenAIのChatGPTが登場して以来、意思決定者がどの優先事項を決定すべきかという議論にもなっている。ChatGPTはこの新技術の不思議な能力を示しており、ほとんどのテーマの問題に対して信頼できそうで説明がスムーズな答えを与えることができる。
ハリス氏は水曜日の講演で、専門家たちはAIセキュリティの定義を拡大し、偏見、差別、誤った情報を伝える能力など、すでに存在する社会的危害を含む、より広範なリスクに注目すべきだと述べた。今週初めに署名された米行政令はいくつかの問題に対応しており、今回のサミットの主催者も水曜日にこれらの問題に言及した。
一部のデジタル権利や労働組合組織もこうした懸念に呼応している。これらの組織は月曜日に公開書簡を発表し、サミットの優先事項を批判した。
「アルゴリズムによってクビになるか、身分や郵便番号のために不公平にローン分析されるかにかかっている」と手紙に書いている。「いくつかの大手科学技術会社がより大きな権力と影響力を握っていることに伴い、小企業や芸術家は市場から締め出され、革新は殺されつつある」。
同時に、一部のAI研究者は、彼らが考えているAIがもたらす壊滅的なリスクを懸念し、意思決定者に最先端AIシステムの開発を制御するよう促している。
非営利団体のフューチャー・オブ・ライフ・インスティテュート(Future of Life Institute)は、政府規制当局がシステムに脅威があることを証明するのではなく、企業が安全であり、潜在的な生存の危険にさらされていないことを証明するための拘束力のあるルール作りを前述のサミットで推進している。未来生命研究所は春に連名書簡を組織し、最先端AIシステムの開発を6カ月間中断するよう呼びかけた。
しかし、マサチューセッツ工科大学教授で未来生命研究所所長のMax Tegmark氏は今回のサミットを前に、声明を発表することは進歩だと考えていると述べた。
AIシステムに真のリスクがあることを認めただけの共同声明でも、大きな進歩だと述べた。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

不正经的工程师 注册会员
  • 粉丝

    0

  • 关注

    0

  • 主题

    43