英国政府は、高度な人工知能モデルの試験開発において米国と協力することに正式に合意しました。法的拘束力のない合意である覚書は、2024年4月1日に英国のミシェル・ドネラン技術長官と米国のジーナ・ライモンド商務長官によって署名されました。

両国は今後、「科学的アプローチを整合」させ、「AIモデル、システム、エージェントの堅牢な評価スイートを加速し、迅速に反復する」ために協力します。この取り組みは、昨年11月に開催された第1回グローバルAI安全サミットで確立されたコミットメントを堅持するためのものです。このサミットでは、世界各国の政府が次世代AIモデルの安全性試験における役割を担うことを承認しました。
英国と米国はどのような AI イニシアチブに合意しましたか?
この覚書により、英国と米国はAIの安全性試験に関する共通のアプローチを構築し、相互に開発成果を共有することに合意しました。具体的には、以下の事項が含まれます。
- AI モデルの安全性を評価するための共通プロセスの開発。
- 公開アクセス可能なモデルに対して少なくとも 1 つの共同テスト演習を実行します。
- AI モデルの集合的な知識を深め、新しいポリシーが整合していることを確認するために、技術的な AI 安全性研究に協力します。
- 各機関間の人事交流。
- 各研究所で行われているすべての活動に関する情報を共有します。
- 安全性を含む AI 標準の開発に他政府と協力しています。
「我々の協力により、両研究所はAIシステムへの理解を深め、より強固な評価を実施し、より厳格なガイドラインを発行できるようになる」とライモンド長官は声明で述べた。
参照: ビジネスに AI を活用する方法を学ぶ (TechRepublic Academy)
この覚書は、主に英国と米国のAI安全研究所が策定した計画の推進に関するものです。英国の研究施設は、既存のAIシステムの評価、基礎的なAI安全研究の実施、そして国内外の他の関係者との情報共有という3つの主要目標を掲げ、AI安全サミットで開設されました。OpenAI、Meta、Microsoftなどの企業は、最新の生成AIモデルを英国AI安全研究所(AISI)が独立して審査することに同意しました。
同様に、2024年2月にNISTによって正式に設立された米国AISIは、2023年10月に発布されたAIに関する大統領令に概説された優先行動に取り組むために設立されました。これらの行動には、AIシステムの安全性とセキュリティに関する標準の策定が含まれます。米国AISIは、Meta、OpenAI、NVIDIA、Google、Amazon、MicrosoftがメンバーとなっているAI Safety Instituteコンソーシアムによって支援されています。
これは AI 企業の規制につながるのでしょうか?
英国と米国のAISIはどちらも規制機関ではありませんが、両機関の共同研究の結果は将来の政策変更に影響を与える可能性があります。英国政府によると、AISIは「我が国のガバナンス体制に基礎的な知見を提供する」一方、米国のAISIは「規制当局が活用する技術ガイダンスを開発する」とのことです。
欧州連合は、画期的なAI法が2024年3月13日に可決され、依然として一歩先を進んでいると言えるでしょう。この法律では、顔認識や透明性に関するAIに関する規則に加え、AIが安全かつ倫理的に使用されるように設計された措置が概説されています。
参照:サイバーセキュリティ専門家の大半はAIが仕事に影響を与えると予想している
OpenAI、Google、Microsoft、Anthropicといった大手テクノロジー企業の大半は米国に拠点を置いており、現時点ではAI関連活動を制限するような厳格な規制は米国には存在しません。10月の大統領令はAIの利用と規制に関するガイダンスを提供しており、署名以降、積極的な措置が講じられていますが、この法案は法律ではありません。NISTが2023年1月に最終決定したAIリスク管理フレームワークも任意適用です。
実際、これらの大手テクノロジー企業は主に自ら規制を担当しており、昨年はAIのリスクを軽減するための独自の「ガードレール」を確立するためにフロンティアモデルフォーラムを立ち上げました。
AIと法律の専門家は安全性テストについてどう考えているのでしょうか?
AI規制は優先されるべき
英国AISIの設立は、国内のAIを統制する方法として、必ずしも広く受け入れられたとは言えなかった。2月、同研究所に関与する企業Faculty AIの最高経営責任者(CEO)は、あらゆるAIモデルを精査しようとするよりも、堅牢な基準を策定する方が政府の資源をより賢明に活用できる可能性があると述べた。
「すべてを自分たちだけでやろうとするのではなく、より広い世界に向けて基準を設定することが重要だと思う」とマーク・ワーナー氏はガーディアン紙に語った。
今週の覚書に関して、テクノロジー法の専門家も同様の見解を示している。「理想的には、両国の努力は研究よりも強硬な規制の策定に費やされる方がはるかに効果的でしょう」と、法律マーケティング会社Amplifyの法務アナリスト兼最高戦略責任者であるアロン・ソロモン氏はTechRepublicへのメールで述べた。
「しかし、問題は次の点です。特に米国議会では、AIを規制できるほどの深い理解を持つ議員がほとんどいないということです。
ソロモン氏はさらにこう付け加えた。「AIがどのように機能し、将来どのように活用されるのかについて、立法者が真に理解を深める、必要な深い研究の時期に入るのではなく、去るべきです。しかし、最近の米国の失態で明らかになったように、立法者がTikTokを禁止しようとしたことで、彼らは集団としてテクノロジーを理解しておらず、賢明に規制する立場にありません。」
「これが、私たちを今日の困難な状況に陥らせています。AIは規制当局の規制能力をはるかに超える速さで進化しています。しかし、現時点で規制を先送りにすることは、避けられない事態を遅らせることにしか過ぎません。」
実際、AIモデルの能力は絶えず変化し、拡張されているため、両機関が実施する安全性試験も同様に進化していく必要がある。「一部の悪意ある者は、試験を回避したり、デュアルユースAIの機能を悪用しようとする可能性があります」と、迅速な管理プラットフォームAIPRMのCEO、クリストフ・チェンパー氏はTechRepublicへのメールで述べた。デュアルユースとは、平和目的と敵対目的の両方に使用できる技術を指す。
ケンパー氏は、「テストは技術的な安全性の懸念を浮き彫りにする可能性があるものの、倫理、政策、ガバナンスに関するガイドラインの必要性に取って代わるものではない…理想的には、両政府はテストを継続的な協力プロセスの初期段階と捉えるだろう」と述べた。
参照:国立サイバーセキュリティセンターの調査によると、生成AIは世界的なランサムウェアの脅威を増大させる可能性がある
効果的なAI規制には研究が必要
ケル・カールソン博士によると、自主的なガイドラインはテクノロジー大手の活動に本当の変化を促すには不十分かもしれないが、強硬な法律は適切に検討されなければAIの進歩を阻害する可能性があるという。
元ML/AIアナリストで、現在はDomino Data Labの戦略責任者を務める人物は、TechRepublicへのメールで次のように述べている。「今日、AI関連の分野では、危害が現実の脅威となり、それが増大しています。例えば、詐欺やサイバー犯罪といった分野では、通常は規制は存在するものの、効果を上げていません。
残念ながら、EU AI法をはじめとする提案されているAI規制のほとんどは、犯罪者が利用しない商用AI製品に焦点を当てているため、これらの脅威に効果的に対処するように設計されていません。そのため、これらの規制の多くはイノベーションを阻害し、コストを増加させる一方で、実際の安全性の向上にはほとんど役立ちません。
そのため、多くの専門家は、英国や米国では規制を急ぐよりも研究と協力を優先する方が効果的だと考えている。
カールソン博士は次のように述べています。「規制は、既知のユースケースによる既存の危害を防ぐという点では有効です。しかしながら、今日ではAIのユースケースのほとんどは未発見であり、危害のほぼすべてが仮説的なものです。それとは対照的に、AIモデルを効果的にテストし、リスクを軽減し、安全性を確保する方法に関する研究の必要性は非常に高まっています。」
「したがって、これらの新しいAI安全研究所の設立と資金提供、そしてこれらの国際協力の取り組みは、安全性を確保するだけでなく、米国と英国の企業の競争力を促進するための優れた公共投資です。」