Scale AIがMeta、Google、xAIの機密ファイルを漏洩

Scale AIがMeta、Google、xAIの機密ファイルを漏洩
動揺した女性が両手で頭を抱えてコンピューターを見ている。
画像: Prostock-studio/Envato

Scale AIは、Meta、Google、xAIのプライベートメールと機密性の高いAIトレーニング資料を、セキュリティ保護されていないGoogleドキュメントを通じて公開していました。一部のファイルは編集可能で、基本的なデータ保護における重大な欠陥が明らかになりました。

Business Insiderは、注目度の高いAIプロジェクトに関連する数十件の公開Googleドキュメントファイルを検証した結果、Scale AIの不適切な管理体制を暴露した。請負業者はシステムを「信じられないほど不安定」と評し、スピードを追求するあまりセキュリティが犠牲になっている可能性を浮き彫りにした。

Google、Meta、xAIの取り組みが公開される

Business Insiderによると、Scale AIはGoogle、Meta、xAIなどの主要クライアント向けのプロジェクト管理に、公開されているGoogleドキュメントを使用していました。一部のファイルは「機密」とマークされ編集可能でしたが、リンクを知っている人なら誰でもアクセスできました。Business Insiderは、社内指示書、トレーニングデータ、プロジェクト資料などを含む85のドキュメント、数千ページに及ぶドキュメントを検証しました。

Googleに関しては、少なくとも7つの機密マニュアルが流出しました。これらのマニュアルには、複雑な質問に答えるのが難しいなど、Bardの具体的な問題点が詳細に記述されており、請負業者にそれらの対処方法を指示していました。匿名化は一貫しておらず、一部のファイルにはGoogleのブランドが依然として表示されていました。

Meta のファイルには、チャットボットの音声トレーニング用のラベル付きオーディオ クリップと、表現力の基準を概説したドキュメントが含まれていました。

xAI の漏洩情報には、幅広いトピックにわたって会話の質を向上させるために設計された 700 個のプロンプトを特徴とする「Project Xylophone」という名前のプロジェクトを含む、少なくとも 10 件の生成 AI プロジェクトが記載されています。

GoogleとxAIはコメントを控え、MetaはBIの問い合わせに応じなかった。

個人メールが公開される

AI企業に関連するデータに加え、Scale AIは自社の請負業者数千人に関する機密情報をGoogleドキュメントで公開していました。スプレッドシートには、個人のGmailアドレスに加え、「高品質」「低品質」「不正行為」といったパフォーマンスラベルも記載されていました。「善良な人々と悪質な人々」や「不正行為を行ったすべてのタスカーを追放せよ」というタイトルのファイルには、不正行為の疑いのある労働者のフラグが付けられていたほか、賃金紛争や「誤って禁止された」請負業者の名前も記録されていました。

請負業者は、これらの文書は簡単にアクセスでき、場合によってはリンクを知っている人なら誰でも編集できると指摘した。

AIの対応を拡大する

BIの記事によると、Scale AIの広報担当者は「徹底的な調査を実施しており、Scaleが管理するシステムからユーザーが文書を公開共有する機能を無効化しました。当社は機密情報を保護するための強固な技術およびポリシーに基づく安全対策に引き続き尽力しており、常に対策の強化に取り組んでいます」と述べています。

Scale AI はすべて誇大広告ですか?

ほんの数週間前、Metaはこれまでで最も大胆なAI投資を行い、Scale AIに143億ドルという巨額の投資を行いました。マーク・ザッカーバーグは、CEOのアレクサンダー・ワンを指名し、同社のスーパーインテリジェンス開発の野望を率いさせました。しかし、情報漏洩と社内の混乱が続く中、この巨額投資は大きな間違いだったのでしょうか?

ロイター通信は、GoogleとMicrosoftがScale AIから撤退すると報じているが、両社とも公式には認めていない。OpenAIは数ヶ月前からScale AIへの関与を段階的に縮小している。

スケール社は自社側では何も変わっていないと主張しているが、著名なクライアントが手を引いて評判が傷つき始めているため、業界はそれほど自信を持てないかもしれない。

OpenAIはそれを許さない。MetaがOpenAIのトップ研究者を誘致するために1億ドルもの巨額の資金を投じた試みに対するAltman氏の反応をTechRepublicが報じた。

Tagged: