OpenAI、Microsoft、Google、Anthropicが安全なAIを推進するフロンティアモデルフォーラムを設立

OpenAI、Microsoft、Google、Anthropicが安全なAIを推進するフロンティアモデルフォーラムを設立
人工知能と現代のコンピューター技術のイメージコンセプト。
画像: putilov_denis/Adobe Stock

OpenAI、Google、Microsoft、Anthropicは、Frontier Model Forumの設立を発表しました。このフォーラムでは、サイバーセキュリティなどの分野におけるベストプラクティスを特定し、幅広い情報共有を行うことで、安全で責任ある人工知能モデルの開発を促進することを目指しています。

ジャンプ先:

  • フロンティアモデルフォーラムの目標は何ですか?
  • フロンティアモデルフォーラムの主な目的は何ですか?
  • フロンティア モデル フォーラムのメンバーシップの基準は何ですか?
  • AIの実践と規制に対する協力と批判
  • その他のAI安全対策

フロンティアモデルフォーラムの目標は何ですか?

フロンティア・モデル・フォーラムの目標は、会員企業から技術面および運用面でのアドバイスを得て、業界のベストプラクティスと標準をサポートするソリューションの公開ライブラリを構築することです。会員企業は声明の中で、フォーラムの設立のきっかけは、AIの活用が拡大する中で「リスクを軽減するための適切なガードレール」を確立する必要性にあると述べています。

さらに、フォーラムは「AIの安全性とリスクに関して、企業、政府、および関連する利害関係者間で情報を共有するための、信頼できる安全なメカニズムを構築する」と述べています。フォーラムは、サイバーセキュリティなどの分野における責任ある情報開示のベストプラクティスに従います。

参照:Microsoft Inspire 2023:基調講演のハイライトとトップニュース(TechRepublic)

フロンティアモデルフォーラムの主な目的は何ですか?

フォーラムでは、次の 4 つの中心目標を策定しました。

1. AIの安全性研究を推進し、最先端モデルの責任ある開発を促進し、リスクを最小限に抑え、機能と安全性の独立した標準化された評価を可能にします。

2. 最先端モデルの責任ある開発と展開に関するベストプラクティスを特定し、一般の人々がテクノロジーの性質、機能、制限、影響を理解できるように支援します。

3. 政策立案者、学者、市民社会、企業と協力して、信頼と安全リスクに関する知識を共有する。

4. 気候変動の緩和と適応、がんの早期発見と予防、サイバー脅威への対処など、社会の最大の課題の解決に役立つアプリケーションの開発への取り組みを支援します。

参照:OpenAIが「超知能」AIを開発する研究者を募集中(TechRepublic)

フロンティア モデル フォーラムのメンバーシップの基準は何ですか?

フォーラムのメンバーになるには、組織は一連の基準を満たす必要があります。

  • 事前定義されたフロンティア モデルを開発および展開します。
  • 彼らは、最先端のモデルの安全性に対する強いコミットメントを示しています。
  • 彼らは、イニシアチブをサポートし、参加することで、フォーラムの活動を推進する意欲を示しています。

創設メンバーは発表の中で、AIには社会を変える力があるため、監督とガバナンスを通じて責任を持ってその力を発揮させる義務があると指摘した。

「AI企業、特に最も強力なモデルを開発している企業は、共通の基盤を築き、思慮深く適応性の高い安全対策を推進することで、強力なAIツールが可能な限り幅広い恩恵をもたらすことが不可欠です」と、OpenAIの国際問題担当副社長であるアンナ・マカンジュ氏は述べています。AIの安全性向上は「喫緊の課題」であり、フォーラムは迅速な行動をとるための「態勢が整っている」と彼女は述べています。

「AI技術を開発する企業には、その技術が安全で、セキュリティが確保され、人間の管理下にあることを保証する責任があります」と、マイクロソフトの副会長兼社長であるブラッド・スミス氏は述べています。「この取り組みは、テクノロジー業界が結集し、AIを責任を持って発展させ、人類全体に利益をもたらすよう課題に取り組むための重要な一歩です。」

参照:採用キット: 迅速なエンジニア(TechRepublic Premium)

フロンティアモデルフォーラムの諮問委員会

多様な背景を持つメンバーで構成される諮問委員会が設立され、戦略と優先事項を監督します。また、設立企業は、これらの取り組みを主導するために、ワーキンググループと執行委員会を設置し、憲章、ガバナンス、資金調達を確立します。

同委員会はフォーラムの設計について「市民社会や政府」と協力し、協力の方法について議論する予定だ。

AIの実践と規制に対する協力と批判

フロンティア・モデル・フォーラムの発表は、OpenAI、Google、Microsoft、Anthropic、Meta、Amazon、Inflectionがホワイトハウスの8つのAI安全保証リストに同意してから1週間も経たないうちに行われました。これらの企業の一部がAIの実践と規制に関して最近講じた措置を考慮すると、これらの最近の動きは特に興味深いものです。

例えば、6月にタイム誌は、OpenAIがEUにAI規制を緩和するようロビー活動を行ったと報じた。さらに、このフォーラムが結成されたのは、マイクロソフトが大規模なレイオフの一環として倫理・社会チームを解雇してから数か月後のことであり、同社の責任あるAI実践への取り組みに疑問が投げかけられている。

「チームの廃止は、マイクロソフトがこれらのAIツールを拡大し、一連の製品やサービスを通じて顧客に提供することを目指している中で、AIの原則を製品設計に統合することに真剣に取り組んでいるのかどうかという懸念を引き起こしている」とリッチ・ハイン氏は2023年3月のCMSWireの記事で述べている。

その他のAI安全対策

これは、責任ある安全なAIモデルの開発を促進するための唯一の取り組みではありません。6月、ペプシコはスタンフォード大学人間中心人工知能研究所との連携を開始し、「AIが責任を持って実装され、個々のユーザーだけでなく、より広範なコミュニティにもプラスの影響を与えることを保証する」と発表しました。

MITシュワルツマン・カレッジ・オブ・コンピューティングは、プライバシー、公平性、偏見、透明性、説明責任など、AIの「新たな課題に対処するための政府や企業への具体的なガイドライン」を策定するための世界的な取り組みであるAI政策フォーラムを設立しました。

カーネギーメロン大学の Safe AI ラボは、「重要なアプリケーション向けに、信頼性が高く、説明可能で、検証可能で、すべての人に適した人工知能学習方法を開発する」ために設立されました。

Tagged: