
7月6日と7日、国連は第6回AI for Goodグローバルサミットを開催しました。パネルディスカッション「AI for Goodの次の波 ― 2030年に向けて」では、生成AIの専門家が、生成AIが現在もたらすリスク、次世代にその可能性を教育する方法、そして規制や社会問題の解決に向けて国際社会がどのように連携すべきかを指摘しました。
ジャンプ先:
- 生成型AIのリスクには、誤情報やデータへの不平等なアクセスなどが含まれる
- 生成型AIの世界に向けて次世代を育成する
- 生成AIの安全な開発はコミュニティから始まる
- AIが資源分配に関する世界的な懸念とどのように絡み合うか
- AI分野はイノベーションと規制の間の緊張を緩和する必要がある
生成型AIのリスクには、誤情報やデータへの不平等なアクセスなどが含まれる
「(生成型AIの)最大の短期的リスクは、大規模な言語ツールを使用して意図的に偽情報を作り出し、民主主義と市場を混乱させることだ」と、起業家でニューヨーク大学の心理学および神経科学の元教授であり、新設された信頼できるAI推進センターの最高経営責任者であるゲイリー・マーカス氏は述べた。
マーカス氏は生成AIにも利点があると考えている。自動コーディングは、過重労働のプログラマーの負担を軽減できると彼は提案した。
カーネギー倫理・国際問題評議会のAIと平等プロジェクトの共同ディレクターであるウェンデル・ウォラック氏は、北半球の裕福な国と南半球の貧しい国(いわゆるグローバル・ノースとグローバル・サウス)間の不平等が、生成型AIによって悪化している問題であると指摘しました。例えば、世界経済フォーラムは2023年1月にブログ記事を公開し、生成型AIは主にグローバル・ノースで開発・利用されていると述べています。
生成AIは様々な言語の学習データから学習します。しかし、話者数が最も多い言語は、当然のことながら、最も多くのデータを生成します。そのため、大量のデータが生成される言語を話す人は、生成AIの有用な応用を見つけられる可能性が高いとマーカス氏は述べています。
「十分な資源と資金を持つ言語で活動する人々は、他の言語を使う人々ができないことができるため、不平等が拡大している」と彼は語った。
生成型AIの世界に向けて次世代を育成する
カリフォルニア大学アーバイン校で認知科学の学位を取得し、AIを活用して医療を改善する専門家であるカリシュマ・ムトゥクマール氏は、学校ではなく、友達や家庭で生成AIについて学んでいる子供たちから話を聞いていると指摘した。
彼女は人工知能の使い方を教えることができるカリキュラムを提案した。
「本当に効果のあるカリキュラムを見つけるには、世代を超えた対話と優秀な人材を集めることが必要になる」とムトゥクマール氏は語った。
生成AIの安全な開発はコミュニティから始まる
多くのパネリストがコミュニティの重要性、そして生成AIに関する議論においてすべてのステークホルダーが発言権を持つようにすることの重要性について語りました。マーカス氏によると、それは「科学者、社会科学者、倫理学者、市民社会の人々」、そして政府や企業を意味するとのことです。
「ITU(国際電気通信連合、国連機関)のような世界規模のプラットフォームや、今回のような会議は、私たちがよりつながりを感じられるようになり、AIが人類のつながりをより強く感じられるよう支援するのに役立っています」とムトゥクマール氏は述べた。
「ここ数年にわたって開催してきた会合から生まれる成果の一部として、この問題が議題に上がっているという認識が各国の指導者に伝わり、彼らがこれは無視すべき問題ではないと理解し始めることが私の望みです」とウォラック氏は述べた。
生成AIを用いて地球規模の問題を解決することに関する倫理的問題に関して、ムトゥクマール氏は、この問いが新たな問いを提起すると主張した。「何が善であり、それをどのように定義できるでしょうか?国連の持続可能な開発目標は、持続可能な目標を見極め、私たちが何を達成できるかを考えるための優れた枠組みであり、出発点です。」
AIが資源分配に関する世界的な懸念とどのように絡み合うか
ウォラック氏は、生成AI企業に注ぎ込まれている巨額の資金が、AI for GoodサミットがAIに解決を促すべきと提言している問題を必ずしも解決するわけではないと指摘した。
「デジタル経済に内在する価値構造の問題の一つは、どの分野にも必ず勝者が存在することです」と彼は述べた。「そして、キャピタルゲインはそうした勝者の株式を保有する私たちの手に渡ります。これは、持続可能な開発目標を達成するための資源配分という観点から、深刻な問題です。」
彼は、生成AIや地球規模の問題に対するその他の技術的解決策を開発する企業も、「選択した解決策の欠点やトレードオフを改善する責任」を持つべきだと提案している。
AI分野はイノベーションと規制の間の緊張を緩和する必要がある
国連についても議論が交わされた。ウォラック氏は、国連が地球規模の問題を議論するために関係者を集めようとする努力は称賛に値するものの、国連は「評判がまちまち」であり、「国家間の不協和音」を解決できないと指摘した。
しかし、彼は生成 AI と倫理に関する会話をより幅広い聴衆に広めることが有益であることを期待しています。
AIにおける倫理的配慮の意味も、状況によって異なる可能性があります。「例えば、AIにおける公平性の概念は、その用途によって大きく異なります」と、AI・機械学習ソフトウェア企業DataRobotのグローバルAI倫理学者であり、米国国家AI諮問委員会のメンバーでもあるハニエ・マフムディアン氏は、TechRepublicとのメールインタビューで述べています。「採用システムに適用する場合、公平性は平等な代表性を意味する可能性がありますが、顔認識の文脈では、公平性は一貫した精度を指す可能性があります。」
マーカス氏は、政府による規制は生成型 AI が善のために機能する未来を確保する上で重要な要素であると考えています。
「現在、いわゆるイノベーションの促進と規制の間に緊張関係が生じています」と彼は述べた。「これは誤った緊張関係だと思います。シリコンバレーにAIを信頼できるものにする必要があると伝える規制を通して、実際にはイノベーションを促進できるのです。」
彼は生成AIブームをソーシャルメディアブームに例え、企業が周囲の規制よりも速く成長したと述べた。
「もし私たちが正しい戦略を取れば、私の出身国であるアメリカのような個々の国でも、そして世界レベルでも、人々が何か行動を起こす必要があると気づくこの瞬間を捉えることができるでしょう。そうでなければ、私たちは1年間、苦悩の日々を送ることになるでしょう」とマーカス氏は語った。