
OpenAIは、他のAIと連携して超知能人工知能(AI)の封じ込めに取り組む研究者を募集しています。最終目標は、SFの世界かもしれないし、そうでないかもしれない、人間のような機械知能の脅威を軽減することです。
「私たちよりもはるかに賢いAIシステムを操縦し、制御するには、科学的かつ技術的なブレークスルーが必要です」と、OpenAIの調整責任者であるヤン・ライケ氏と共同創設者で主任科学者のイリヤ・スツケバー氏はブログ投稿に書いている。
ジャンプ先:
- OpenAIのスーパーアライメントチームは現在募集中です
- AIトレーナーは他のAIモデルを統制する可能性がある
- 超知能 AI: 現実か、それとも SF か?
OpenAIのスーパーアライメントチームは現在募集中です
Superalignmentチームは、OpenAIの総計算能力の20%を、将来のAI製品の整合性を保つために、人間レベルの自動アライメント研究者と呼ばれる人材の育成に充てます。この目標達成に向けて、OpenAIの新しいSuperalignmentグループでは、リサーチエンジニア、リサーチサイエンティスト、リサーチマネージャーを募集しています。
OpenAI によれば、AI を制御する鍵は調整、つまり AI が人間が意図した仕事を確実に実行できるようにすることだという。
同社はまた、「超知能」、つまり人間を超える能力を持つAIの制御を目標の一つとしている。ライケ氏とサツケヴァー氏は、こうしたSF的な超知能AIが「人間の意図に従う」ことが重要だと述べている。彼らは、過去10年以内に超知能AIが開発されると予測しており、今後4年以内にそれを制御する手段を確立したいと考えている。
参照: 組織内で人工知能を利用するための倫理ポリシーを構築する方法 (TechRepublic Premium)
「OpenAIが、こうしたシステムと私たち人間の価値観の整合性を確保するために積極的に取り組んでいることは心強いことです」と、AI・MLソフトウェア企業DataRobotのグローバルAI倫理学者であり、米国国家AI諮問委員会の委員でもあるハニエ・マフムディアン氏は述べています。「しかしながら、これらのシステムの将来的な活用方法や能力については、まだほとんど分かっていません。既存のAI導入事例と比較すると、万能なアプローチは適用できず、システムの実装と評価の詳細は利用状況によって異なることは明らかです。」
AIトレーナーは他のAIモデルを統制する可能性がある
現在、AIの学習には多くの人間による入力が必要です。ライケ氏とスツケヴァー氏は、AI開発における将来の課題は敵対的なもの、つまり「学習中にモデルが教師データを正しく検知し、それを覆すことができないこと」になる可能性があると提唱しています。
そのため、開発者を凌駕するAIを訓練するには、専門のAIが必要になると彼らは述べています。他のAIモデルを訓練するAI研究者は、OpenAIのアライメントパイプライン全体のストレステストと再評価に協力します。
OpenAI がアライメントを処理する方法を変更することには、3 つの主要な目標があります。
- 他の AI を評価し、それらのモデルが人間が通常行うような監視をどのように解釈するかを理解するのに役立つ AI を作成します。
- AI 内の問題のある動作や内部データの検索を自動化します。
- 意図的に「不整合」な AI を作成し、アライメント AI がそれを検出できることを確認することで、このアライメント パイプラインのストレス テストを実行します。
OpenAIの以前のアライメントチームおよびその他のチームの人員が、新規採用者と共にスーパーアライメントに取り組みます。新チームの設立は、スツケヴァー氏の超知能AIへの関心を反映しています。彼はスーパーアライメントを自身の主要な研究分野に据える予定です。
超知能 AI: 現実か、それとも SF か?
「超知能」が存在するかどうかは議論の余地がある。
OpenAIは、人間のようなAIでありながら、一般化知能よりも上位の階層に超知能を位置づけるという考え方を提唱している。一般化知能は、一部の研究者が決して存在しないと主張する人間のようなAIのクラスである。しかし、Microsoftの研究者の中には、GPT-4が標準テストで高得点を獲得したことから、一般化知能の閾値に近づいていると考える者もいる。
一方で、知能が標準化されたテストで本当に測定できるのか疑問視する声や、汎用AIという概念自体が技術的な課題ではなく哲学的な課題に取り組んでいるのではないかと疑問を呈する声もある。Cohere for AIによる2022年の研究は、大規模言語モデルは言語を「文脈の中で」解釈することができないため、人間のような思考には全く近づいていないと指摘している。(これらの研究はいずれも査読を受けていない。)
「超AIに関する絶滅レベルの懸念は、社会を根本的に変革しうる長期的なリスクを示唆しており、こうした考慮は研究の優先順位、規制政策、そして長期的な安全策を策定する上で不可欠です」とマフムディアン氏は述べた。「しかしながら、こうした未来的な懸念のみに焦点を当てると、現在のAI技術に関連するより差し迫った、より現実的な倫理的問題が、意図せず見過ごされてしまう可能性があります。」
より実際的な倫理的問題には次のようなものがあります。
- プライバシー
- 公平性
- 透明性
- 説明責任
- AI アルゴリズムの潜在的な偏り。
これらはすでに人々が日常生活で AI を使用する方法に関連していると彼女は指摘した。
「今日のAIがもたらす具体的な倫理的課題に同時に対処しながら、長期的な影響とリスクを考慮することが重要だ」とマフムディアン氏は述べた。
参照:AIの高リスクな使用の一部は、欧州議会で策定中の法律の対象となる可能性があります。(TechRepublic)
OpenAIはAI開発のスピードを先取りすることを目指している
OpenAI は、スーパーインテリジェンスの脅威は起こりうるが差し迫ったものではないとしている。
「今後数年間の技術開発のスピードについては大きな不確実性があるため、より高性能なシステムを調整するというより困難な目標を目指すことを選択した」とライケ氏とスツケヴァー氏は書いている。
また、ChatGPTのような既存のAI製品の安全性を向上させることが優先事項であり、AIの安全性に関する議論には「誤用、経済混乱、偽情報、偏見や差別、依存症や過度の依存など、AIのリスク」や「関連する社会技術的な問題」も含める必要があると指摘しています。
「スーパーインテリジェンスの調整は基本的に機械学習の問題であり、優れた機械学習の専門家が、たとえまだ調整に取り組んでいなくても、その解決には不可欠になると考えています」とライケ氏とサツケバー氏はブログ投稿で述べた。