
Meta は、従来は人間の判断に大きく依存していたシステムに代えて、社内の安全性とプライバシーに関するレビューの大部分を人工知能に移行しています。
NPRが初めて入手した内部文書によると、Metaのリスク評価の最大90%が自動化される予定であることが明らかになった。これまでは、専門チームがアップデートがユーザーのプライバシーにどのような影響を与えるか、未成年者にどのような危害を加えるか、あるいは誤情報の拡散を助長するかを評価していた。新システムでは、これらの評価の責任は主にAI技術に移管される。
Meta は、Facebook、Instagram、WhatsApp、Threads の親会社です。
製品リスクを判断するAI
この新しいフレームワークでは、製品チームがアップデートの詳細を記したアンケートに回答すると、AIシステムが即座に判断を下し、潜在的なリスクを特定し、プロジェクトに必要な条件を確立します。人間による監視は、プロジェクトに新たなリスクが生じる場合や、チームから特に要請があった場合など、特定の場合にのみ必要となります。Metaの社内プレゼンテーションのスライドでは、このプロセスについて、チームがAIによる評価に基づいて「『即時の決定』を受け取る」と説明されています。
この変化により、開発者はより迅速に機能をリリースできるようになります。しかし、Metaの元関係者を含む専門家は、スピードが慎重さを犠牲にしているのではないかと懸念しています。
「このプロセスは機能的には、より少ない厳格な審査と反対で、より多くのものがより早くリリースされることを意味するが、それはより高いリスクを生み出すことを意味する」とメタの元幹部は匿名を条件にNPRに語った。
Metaは声明で、この新しいプロセスは「意思決定を効率化」することを目的としており、「新しい複雑な問題」については「人間の専門知識」が引き続き活用されると述べた。同社は「低リスクの意思決定」のみが自動化されると主張しているが、NPRが入手した内部文書によると、AIの安全性、青少年のリスク、コンテンツの完全性(暴力的コンテンツや虚偽コンテンツを含む)といった、よりデリケートな分野も自動化の対象となる予定であることが明らかになった。
批評家はそれが逆効果になる可能性があると指摘
Metaの内外からは、リスク評価においてAIに過度に依存するのは近視眼的になりかねないとの懸念が高まっている。匿名でNPRに語った別のMeta元従業員は、「これは自滅的と言えるでしょう。新製品が発売されるたびに、非常に厳しい精査が行われ、その精査によって、会社がもっと真剣に取り組むべきだった問題が頻繁に発見されるのです」と述べた。
フェイスブックの元公共政策ディレクターで現在はアンカー・チェンジの最高経営責任者を務めるケイティ・ハーバス氏は、よりバランスのとれた見解を示した。
「迅速かつ高品質な対応を望むなら、AIをもっと取り入れる必要があります。人間が一定期間内にできることには限界があるからです」と彼女はNPRに語った。そして、「こうしたシステムには、人間によるチェックとバランスも必要だ」と強調した。
規制圧力と欧州の例外
Metaは2012年以来、連邦取引委員会(FTC)との契約に基づき、製品アップデートのプライバシー審査を実施する義務を負っています。この監督は、同社のユーザーデータの取り扱いに関する和解を受けて行われました。
これらの義務への対応として、Metaは「プライバシープログラムに80億ドル以上を投資」し、プロセスの改良を継続していると述べています。「リスクが進化し、プログラムが成熟するにつれて、リスクをより適切に特定し、意思決定を効率化し、人々の体験を向上させるためにプロセスを強化していきます」と、同社の広報担当者はTechCrunchに語りました。
興味深いことに、EUのユーザーは同じレベルの自動化に直面しない可能性があります。社内コミュニケーションによると、EU関連製品に関する意思決定は、コンテンツとデータ保護に関するより厳格な規則を課すデジタルサービス法の影響もあり、引き続きアイルランドにあるMeta本社で管理される予定です。
自動化への移行は、ファクトチェックプログラムの段階的廃止やヘイトスピーチポリシーの緩和など、Meta の最近のポリシー変更と一致しています。
Metaは2025年第1四半期のインテグリティレポートで、同社のAIシステムが既に一部のポリシー分野で人間を上回っていることを強調した。「これにより、審査担当者の能力が解放され、違反の可能性の高いコンテンツに専門知識を優先的に活用できるようになります」と同社は述べている。