2023年11月1日〜2日に開催されたAI安全サミットには、28か国とハイテク企業の代表者が英国の歴史的なブレッチリー・パークに集まった。
サミットの初日は、AIの安全性に関する画期的なブレッチリー宣言の調印で最高潮に達した。この宣言は、英国、米国、中国を含む28の参加国が、安全で責任ある開発と展開を確保しながら、人工知能によるリスクを共同で管理・軽減することを約束している。
サミットの2日目、最終日には、政府と主要なAI組織が、モデルの導入前および導入後のテストにおける政府の役割を含む、高度なAI技術の安全なテストに関する新たな計画に合意した。
ジャンプ先:
- AI Safety Summitとは何ですか?
- AI 安全サミットには誰が参加しましたか?
- AI の安全性に関するブレッチリー宣言とは何ですか?
- 政府は新しい AI モデルをどのようにテストするのでしょうか?
- AI安全サミットに対する専門家の反応は?
- AIの安全性はなぜ重要なのでしょうか?
- 英国はAIにどのように投資してきましたか?
AI Safety Summitとは何ですか?
AI安全サミットは、2023年11月1日と2日に英国バッキンガムシャーで開催される主要な会議です。国際政府、テクノロジー企業、学界が一堂に会し、「開発の最前線」におけるAIのリスクを検討し、世界規模の団結した取り組みを通じてこれらのリスクをどのように軽減できるかについて議論しました。
AI安全サミットの初日には、最先端のAIへの理解を深めることを目指し、ビジネスリーダーや学者による一連の講演が行われました。OpenAI、Anthropic、英国に拠点を置くGoogle DeepMindといった「主要開発者」との円卓討論も行われ、リスク閾値、効果的な安全性評価、堅牢なガバナンスと説明責任のメカニズムをどのように定義するかが議論の中心となりました。
参照:ChatGPTチートシート:2023年完全ガイド(TechRepublic)
サミット初日には、チャールズ3世国王によるオンライン演説も行われました。国王はAIを人類史上最大の技術的飛躍の一つと称し、医療をはじめとする生活の様々な側面を変革するこの技術の可能性を強調しました。国王は、AIが安全で有益な技術であり続けるよう、強固な国際協調と協力を呼びかけました。
AI 安全サミットには誰が参加しましたか?
AI安全サミットには、アラン・チューリング研究所、スタンフォード大学、経済協力開発機構(OECD)、エイダ・ラブレス研究所の代表者に加え、Google、Microsoft、IBM、Meta、AWSなどのテクノロジー企業、そしてSpaceXのCEOであるイーロン・マスク氏をはじめとするリーダーたちが出席しました。また、カマラ・ハリス米国副大統領も出席しました。
AI の安全性に関するブレッチリー宣言とは何ですか?
ブレッチリー宣言では、高度で潜在的に危険な AI 技術の開発者は、誤用や事故を防ぐための厳格なテスト プロトコルと安全対策を通じてシステムの安全性を確保する重大な責任を負うと述べられています。
また、この報告書は、AI のリスクを理解し、AI の安全性に関する国際的な研究パートナーシップを促進するための共通の基盤の必要性を強調するとともに、「これらの AI モデルの最も重要な機能に起因する、意図的か否かを問わず、深刻な、さらには壊滅的な損害が発生する可能性がある」ことを認識しています。
英国のリシ・スナック首相は、この宣言への署名を「世界最大のAI大国がAIのリスクを理解することの緊急性について合意した画期的な成果」と呼んだ。
スナク氏は書面の声明で、「英国のリーダーシップの下、AI安全サミットに参加した25か国以上が、AIのリスクに対処し、最先端のAIの安全性と研究に関する重要な国際協力を進めるという共通の責任を表明した」と述べた。
「英国は、この対話を主導することで、この新たな技術の最前線で再び世界をリードしています。この対話を通して、私たちはAIの安全性を確保し、将来の世代にAIのあらゆる恩恵をもたらすために協力していくでしょう。」(英国政府は、社会に未知のリスクをもたらす可能性のある高度な人工知能システムを「フロンティアAI」と呼んでいます。)

ブレッチリー宣言に対する専門家の反応
英国政府はこの宣言の重要性を繰り返し強調したが、一部のアナリストは懐疑的だった。
フォレスターの副社長主席アナリストであるマーサ・ベネット氏は、この合意の署名は実質的というよりは象徴的なものだと示唆し、署名国は「ブレッチリー宣言の文面にAIの規制方法に関する有意義な詳細が含まれていたなら、同意しなかっただろう」と指摘した。
ベネット氏はTechRepublicへのメールで次のように述べた。「この宣言は、AIの規制に実質的な影響を与えることはないでしょう。例えば、EUではすでにAI法が策定中であり、米国ではバイデン大統領が10月30日にAIに関する大統領令を発令し、G7のAIに関する国際指導原則と国際行動規範も10月30日に公表されました。これらはすべて、ブレッチリー宣言よりも内容が充実しています。」
しかし、ベネット氏は、宣言が政策に直接的な影響を与えないという事実は必ずしも悪いことではないと述べた。「サミットとブレッチリー宣言は、むしろシグナルを発し、協力の意思を示すことに重点が置かれており、それは重要です。善意が意味のある行動に繋がるかどうかは、今後の展開を見守る必要があるでしょう」と彼女は述べた。
政府は新しい AI モデルをどのようにテストするのでしょうか?
政府とAI企業は、高度なAIモデルの安全性試験に関する新たな枠組みについても合意しており、これにより政府は導入前および導入後の評価においてより重要な役割を果たすことになる。
この枠組みはブレッチリー宣言を基盤としており、特に国家安全保障と公共の福祉に関わる分野において、政府が「最先端のAIモデルの外部安全性試験が実施されるよう監視する役割を担う」ことを確保する。その目的は、AIモデルの安全性試験の責任をテクノロジー企業のみから分離することである。
英国では、この作業は新たに設立されたAI安全研究所によって行われ、同研究所はアラン・チューリング研究所と連携して「新しいタイプの最先端AIを慎重にテスト」し、「偏見や誤情報などの社会的危害から、人類がAIを完全に制御できなくなるなど、最も起こりそうにないが極端なリスクまで、あらゆるリスクを調査」する。
参照:採用キット: 迅速なエンジニア(TechRepublic Premium)
著名なコンピューター科学者のヨシュア・ベンジオ氏は、「科学の現状」レポートの作成を主導する任務を負っており、このレポートは高度な人工知能の能力とリスクを評価し、この技術に対する統一的な理解を確立することを目指している。
サミットの閉幕記者会見で、スナク氏は、ベンジオ教授が支持したように、AIの安全性を確保する責任は主にAIモデルを開発する企業にあるべきかどうかについて、メディア関係者から質問を受けた。
これに対しスナック財務相は、企業だけが「自らの宿題を採点する」責任を負うことはできないとの見解を示し、政府には国民の安全を確保する基本的な義務があると示唆した。
「国民の安全を守るのは政府の責務であり、だからこそ私たちはAI安全研究所に多額の投資を行ってきたのです」と彼は語った。
「これらのモデルが安全であることを確認するために、独立した外部機関による評価、監視、テストを行うのが私たちの仕事です。企業には、自社の技術開発が安全かつ確実に行われていることを保証する一般的な道徳的責任があると思いますか?はい、そして彼らは皆全く同じことを言っています。しかし、政府がその役割を果たさなければならないことにも、彼らは同意すると思います。」
別のジャーナリストは、AI技術の規制に対する英国のアプローチ、特に正式なライセンス制度に比べて自主的な取り決めで十分かどうかについてスナック氏に質問した。
これに対しスナック氏は、AIの進化のスピードには追いついた政府の対応が必要だと主張し、将来の規制に役立てるために必要な評価と研究を行う責任はAI安全研究所にあると示唆した。
「技術の発展はあまりにも速いため、政府は義務化や法整備を始める前に、今からでも追いつけるようにしなければなりません」とスナック氏は述べた。「規制は科学的根拠に基づいた実証的なものでなければなりません。だからこそ、まずは着手する必要があるのです。」
AI安全サミットに対する専門家の反応は?
AIサイバーセキュリティ企業ダークトレースの最高経営責任者(CEO)、ポピー・グスタフソン氏はPAメディアに対し、議論が殺人ロボットのような「将来の仮説上のリスク」に集中しすぎるのではないかと懸念していたが、現実には議論はもっと「慎重」なものだったと語った。
フォレスター社のベネット氏は明らかに異なる意見を持ち、TechRepublic に対し「突飛で、終末をもたらす可能性のあるシナリオに少し重点が置かれすぎている」と語った。
彼女はさらにこう付け加えた。「(ブレッチリー)宣言には、今日のAIの安全性に関する問題に対処する上でもちろん極めて重要な科学的研究と協力に関する適切な言葉がすべて盛り込まれているが、文書の最後では再び最先端のAIの話に戻っている。」
ベネット氏はまた、サミットをめぐる議論の多くは協力と連携に関するものだったが、各国はAIのリーダーとなるために独自の取り組みを進めていると指摘した。
サミットで新たな世界的なAI研究機関の設立に関する発表が行われることを期待していた人がいたとしたら、その期待は打ち砕かれました。今のところ、各国はそれぞれの取り組みに注力しています。先週、英国のリシ・スナック首相は「世界初のAI安全研究所」の設立を発表しました。本日(11月1日)、バイデン米大統領は米国人工知能安全研究所の設立を発表しました。
彼女はさらにこう付け加えた。「ブレッチリー宣言が提唱するような、さまざまな研究所間の協力が実現することを期待しましょう。」
参照:国連AI for Goodサミット、生成型AIがもたらすリスクと繋がりの促進を検証(TechRepublic)
ゾーホー傘下のマネージエンジンの社長、ラジェシュ・ガネサン氏は電子メールでの声明で、「サミットで世界的な規制機関の設立が実現しなかったら失望する人もいるかもしれないが、世界のリーダーたちがAI規制について議論していたという事実は前向きな一歩だ」とコメントした。
「AIがもたらすリスクを管理するためのメカニズムについて国際的な合意を得ることは重要な節目だ。AIの利点と損害能力のバランスをとるためには、より緊密な協力が最も重要になるだろう」とガネサン氏は声明で述べた。
「AIの安全な導入には、規制とセキュリティ対策が引き続き重要であり、その急速な進歩に対応していく必要があることは明らかです。EUのAI法とG7行動規範は、この取り組みを推進し、枠組みを提供する可能性があります。」
ガネサン氏はさらにこう付け加えた。「継続的な教育を優先し、生成AIシステムを安全かつ確実に利用できるスキルを人々に身につけさせる必要があります。AIの導入において、AIを使い、その恩恵を受ける人々を中心に据えなければ、危険で最適とは言えない結果を招くリスクがあります。」
AIの安全性はなぜ重要なのでしょうか?
欧州連合は28カ国からなる域内で人工知能に関するルールを制定することを目指した枠組みを策定しているものの、現時点では人工知能の使用を規制する包括的な規制は存在しない。
AIの悪意ある利用、あるいは人為的・機械的なミスによる悪用の可能性は、依然として大きな懸念事項です。サミットでは、サイバーセキュリティの脆弱性、バイオテクノロジーの危険性、偽情報の拡散がAIがもたらす最も重大な脅威として挙げられ、アルゴリズムのバイアスやデータプライバシーの問題も強調されました。
英国のミシェル・ドネラン技術相は、AIの安全な開発を確保するための第一歩として、ブレッチリー宣言の重要性を強調した。また、AI技術に対する国民の信頼を築くには国際協力が不可欠であると述べ、「AIがもたらす課題とリスクに、一国だけでは立ち向かうことはできない」と付け加えた。
彼女は11月1日に次のように述べた。「今日の画期的な宣言は、技術の安全な開発を確保することで国民の信頼を築くための新たな世界的な取り組みの始まりを示すものです。」
英国はAIにどのように投資してきましたか?
英国AI安全サミット開催前夜、英国政府は英国におけるAIスキル育成のための資金増額として、1億1,800万ポンド(約143億円)の資金拠出を発表しました。この資金は研究センター、奨学金、ビザ制度を対象とし、若者のAIおよびデータサイエンス分野の学習を奨励することを目的としています。
一方、英国の国民保健サービスにAIを活用した診断技術や、X線やCTスキャンなどの画像技術を導入するために2100万ポンド(2550万ドル)が割り当てられた。