企業を脅かすディープフェイク詐欺5選

企業を脅かすディープフェイク詐欺5選
ディープフェイク技術を実行する AI。
画像: metamorworks/Adobe Stock

フォレスターの最新レポートは、企業に対し、甚大な被害をもたらす可能性のある5つのディープフェイク詐欺に注意するよう警告しています。ディープフェイク詐欺とは、詐欺、株価操作、評判とブランド、従業員体験と人事、そして増幅です。

ディープフェイクはAI技術を使って、誰かになりすますために使用できる合成ビデオや音声コンテンツを作成する機能だと、レポートの著者でフォレスターの副社長兼主席アナリストのジェフ・ポラード氏はTechRepublicに語った。

ディープフェイクと生成AIの違いは、後者では質問を入力すると、確率的に答えが返される点だとポラード氏は述べた。ディープフェイクは「AIを活用しているが…大規模な言語モデルが返すような文章による回答や返答ではなく、動画や音声コンテンツを生成するように設計されている」。

企業を狙ったディープフェイク詐欺

これらは、Forrester が詳細に説明した 5 つのディープフェイク詐欺です。

詐欺

フォレスターによると、ディープフェイク技術は顔や声を複製することができ、これらの技術は活動の認証や承認に使用されている。

「ディープフェイク技術を使って個人のクローンを作成し、なりすますことは、個人を犠牲にする不正な金融取引につながるが、企業内でも起こるだろう」と報告書は指摘している。

詐欺の一例としては、上級管理職になりすまして犯罪者への電信送金を承認することが挙げられます。

「このシナリオはすでに存在しており、すぐに頻度が増加するだろう」と報告書は警告した。

ポラード氏はこれを最も普及しているタイプのディープフェイクと呼び、「収益化への道筋が最も短いため」だと述べた。

株価操作

ニュース価値のある出来事は株価の変動を引き起こす可能性があります。例えば、著名な幹部が上場企業を退任した場合などです。この種の発表をディープフェイクで偽装すると、株価は一時的に下落する可能性があり、従業員の報酬や企業の資金調達能力に波及効果をもたらす可能性があると、フォレスターのレポートは述べています。

評判とブランド

ポラード氏は、「…著名な幹部が不快な言葉を使い、顧客を侮辱し、パートナーを非難し、自社の製品やサービスに関する情報を捏造する」という虚偽のソーシャルメディア投稿を作成するのは非常に簡単だと述べています。このようなシナリオは取締役会や広報チームにとって悪夢のような状況を生み出し、報告書は「…今日では、このようなシナリオを人為的に作り出すのは非常に簡単だ」と指摘しています。

ポラード氏は、これは同社のブランドにダメージを与える可能性があるとし、「率直に言って、これを防ぐのはほぼ不可能だ」と付け加えた。

従業員体験と人事

もう一つの「非難すべき」シナリオは、従業員が他の従業員の肖像を用いて、合意のないポルノコンテンツを使ったディープフェイクを作成し、それを拡散させるというものです。これは従業員の精神的健康に大きな打撃を与え、キャリアを脅かす可能性があり、「ほぼ確実に訴訟につながる」と報告書は述べています。

ポラード氏によると、動機は誰かが面白がったり、復讐したりすることだとのことだ。企業にとって最も恐ろしいのは、この詐欺行為だ。「…長期的に見て最も懸念される、あるいは悪質な行為であり、防止するのが最も難しい」と彼は述べた。「従来の従業員の行動とは相容れない」

増幅

ディープフェイクは、他のディープフェイクコンテンツを拡散するために利用される可能性があります。Forresterはこれをコンテンツを拡散するボットに例え、「…ただし、ボットにはユーザー名や投稿履歴を与える代わりに、顔や感情を与える」とレポートで述べています。これらのディープフェイクは、企業のブランドを傷つけることを目的としたオリジナルのディープフェイクに対する反応を作り出すためにも利用され、より幅広い視聴者に見られる可能性があります。

ディープフェイクに対する組織の最善の防御策

ポラード氏は、ディープフェイクを防ぐことはできないと改めて強調した。ディープフェイクは、例えばポッドキャストをダウンロードし、人の声を複製して、実際には言っていないことを言わせるなどして簡単に作成できる。

「技術的には誰でもこれ(人の声を複製する能力)を実現できるステップバイステップのマニュアルがあります」と彼は指摘した。しかし、これに対する防御策の一つは「ひどいことを言ったり、したりしないことです」

さらに、もし企業が信頼でき、誠実で、頼りがいがあり、透明性があるという実績があれば、「…突然、動画で見せられたようなひどい会社だと人々が信じることは難しいでしょう」と彼は述べた。「しかし、プライバシーを軽視してきた実績があれば、幹部が…」何か有害な発言をしている動画を作るのは難しくない。

ポラード氏は、IntelのFakeCatcherのように、整合性、検証、追跡可能性を備え、合成ではないことを示すツールが存在すると付け加えた。「このツールは、動画内のピクセルの血流を観察し、録画時に誰が何を考えていたのかを推測します。」

しかし、ポラード氏は検知ツールについて悲観的な見解を示し、「…ツールは進化するが、敵対者がそれを回避し、再び進化を余儀なくされる。これはサイバーセキュリティの昔からの常套手段だ」と述べた。

彼は、ディープフェイクがなくなることはないため、組織は自分たちが標的になる可能性について積極的に考える必要があると強調した。「ディープフェイクは必ず発生する」と彼は述べた。

「初めてそんなことが起きたときに、最初から考えてはいけない。事前にリハーサルして理解しておけば、実際に起きた時にどう行動すべきか正確に分かる」と彼は言った。「それが真実かどうかは問題ではない。私がそれを共有できるほどに信じられているかどうかが重要なのだ。」

そしてポラードからの最後のメッセージは、「これはインターネットです。すべてのものは永遠に生き続けます。」

Tagged: