首页 报纸 正文

(牛占林編集)英国人工知能(AI)安全研究所は今週金曜日、先進的なAIモデルの安全リスクの監視を強化するための新しいテストプラットフォームを発表した。
紹介によると、このツールボックスの名前はInspectで、一連の分野のAIモデルを評価することができて、それらの核心知識、推理能力、自主能力を含む。オープンソースライセンスの発行により、Inspectは世界中のAIコミュニティで無料で使用できることを意味します。
英国は昨年10月、人工知能安全研究所を設立し、新型AIモデルを研究し、テストすると発表した。今年2月には、英国が1億ポンド以上を投資して9つの新しい研究センターを立ち上げ、AI規制機関に技術訓練を行うことも明らかにした。
記者会見で、英国人工知能安全研究所は、Inspectはソフトウェアライブラリであり、テスターが単一のAIモデルの具体的な能力を評価し、結果に基づいて点数を与えることができるようにしていると述べた。
Inspectは金曜日から使用できるようになり、これは国が支援する機関が先に発表したAIセキュリティテストプラットフォームでもある。
現在のAI競争ブームの下で、ますます多くのAIモデルが今年発売され、これによりAIの安全な発展を推進することがこれまで以上に切迫している。
しかし、現在最も複雑なAIモデルは基本的に「ブラックボックス」であり、そのインフラストラクチャ、トレーニングデータ、その他の重要な詳細は通常それらを作成する会社によって秘密にされ、公開されていないため、AIモデルのベンチマークテストを行うのは難しい。
では、Inspectはこの挑戦にどのように対応しているのでしょうか。主にその拡張性により、新しいテスト技術に適応して接収することができる。Inspect組み込みコンポーネントは、Pythonで作成されたサードパーティ製パッケージを使用して拡張または拡張できます。
Inspectは、データセット、ソルバ、スコアリングの3つの基本セクションで構成されています。データセットはテストのサンプル集合を評価するために使用され、ソルバは実際のテスト作業を実行するコンポーネントであり、採点器の役割はソルバの作業成果を評価し、最終的にAIモデルの性能に関する総合評価を生成し、この設計によりInspectは異なるテスト需要と評価基準に柔軟に適応することができる。
ミシェル・ドネラン英科学相は、AIセキュリティ分野における英国の持続的なリーダーシップの一環として、革新と科学技術の発展における英国の独自の才能と創造力を示し、同分野の世界的リーダーとしての地位を固めたオープンソースInspectを承認したと述べた。
人工知能安全研究所のIan Hogarth会長は、成功したAI安全テスト協力は共有され、アクセス可能な評価方法を持つことを意味し、InspectがAI安全研究所、研究組織、学術界の礎になることを望んでいると述べた。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

SOHU 注册会员
  • 粉丝

    0

  • 关注

    0

  • 主题

    22