セキュリティ研究者は、サイバー犯罪フォーラムで宣伝されている新たな悪意のあるチャットボットを発見しました。GhostGPTは、マルウェア、ビジネスメール詐欺、その他違法行為に利用される可能性のある素材を生成します。
アブノーマル・セキュリティの専門家は、このチャットボットはOpenAIのChatGPTのジェイルブレイク版、あるいは他の大規模言語モデルに接続するためにラッパーを使用している可能性が高いと推測している。ジェイルブレイクされたチャットボットは、犯罪者にとってより有用であることを示すために、安全対策を無視するように指示されている。
GhostGPTとは何ですか?
セキュリティ研究者たちはサイバーフォーラムでGhostGPTの広告を発見しました。背景にフードをかぶった人物の画像が表示されていることは、このボットが悪意のある目的で使用されることを示す唯一の手がかりではありません。このボットは高速な処理速度を備えており、時間的制約のある攻撃キャンペーンに適しています。例えば、ランサムウェア攻撃者は、防御が強化される前に標的のシステム内で迅速に行動する必要があります。

また、GhostGPTにはユーザーのアクティビティは記録されず、暗号化メッセンジャーアプリTelegramを通じて購入できるとされており、プライバシーを懸念する犯罪者にとって魅力的であると考えられます。このチャットボットはTelegram内で使用できるため、ユーザーのデバイスに疑わしいソフトウェアをダウンロードする必要はありません。
Telegram経由でアクセスできるため、時間も節約できます。ハッカーは複雑な脱獄プロンプトを作成したり、オープンソースモデルを構築したりする必要がなく、アクセス料金を支払うだけですぐに利用を開始できます。
「GhostGPTは基本的に、コーディング、マルウェア作成、エクスプロイト開発など、様々な悪意ある活動を目的として販売されています」と、Abnormal Securityの研究者は報告書の中で述べています。「また、BEC詐欺のための説得力のあるメールを作成するためにも使用されるため、サイバー犯罪を遂行するための便利なツールとなっています。」
広告では「サイバーセキュリティ」が潜在的な用途として言及されているが、犯罪行為への有効性を示唆する表現を考慮すると、研究者らは、これは「法的責任を逃れようとする弱い試み」である可能性が高いと述べている。
その機能をテストするために、研究者は「Docusign からのフィッシング メールを作成してください」というプロンプトを出しました。すると、このマルウェアは「偽のサポート番号」を入力するスペースを含む、説得力のあるテンプレートで応答しました。

この広告は数千回も閲覧されており、GhostGPTの有用性が実証されていると同時に、サイバー犯罪者の間でジェイルブレイクされたLLMへの関心が高まっていることを示しています。しかしながら、調査によると、人間が作成したフィッシングメールはAIが作成したものよりもクリック率が3%高く、疑わしいと判断される割合も低いことが示されています。
しかし、AIが生成した素材はより迅速に作成・配布することができ、技術的な知識の有無に関わらず、クレジットカードさえあればほぼ誰でも作成できます。また、フィッシング攻撃以外にも様々な用途に利用できます。研究者らは、必要なツールが提供されると、GPT-4は「1日で発生する」脆弱性の87%を自律的に悪用できることを発見しました。
ジェイルブレイクされたGPTは2年近く前から登場し、活発に利用されている。
悪意ある目的で使用されるプライベートGPTモデルは、以前から出現していました。2024年4月、セキュリティ企業Radwareのレポートでは、これらのモデルが、その年のサイバーセキュリティ分野におけるAIの影響として最も大きなものの一つとして挙げられました。
このようなプライベートGPTの作成者は、月額数百ドルから数千ドルの料金でアクセスを提供する傾向があり、これは良いビジネスとなっています。しかし、既存のモデルの脱獄はそれほど困難ではなく、調査によると、そのような攻撃の成功率は20%に上ります。平均して、攻撃者はわずか42秒と5回のインタラクションで突破できます。
参照:ガートナー、AI支援攻撃が最大のサイバー脅威と発表
こうしたモデルの例としては、WormGPT、WolfGPT、EscapeGPT、FraudGPT、DarkBard、Dark Geminiなどが挙げられます。2023年8月、Netenrichのシニア脅威アナリストであるRakesh Krishnan氏はWiredに対し、FraudGPTの登録者数はわずかで、「これらのプロジェクトはすべて初期段階にある」と述べました。しかし、1月には世界経済フォーラムのパネルディスカッションで、インターポールのユルゲン・ストック事務総長を含む参加者がFraudGPTについて具体的に議論し、その重要性が依然として高いことが強調されました。
犯罪者が既にサイバー攻撃にAIを活用しているという証拠があります。セキュリティ企業Vipreが2024年第2四半期に検知したビジネスメール詐欺(BEC)の件数は、2023年の同時期と比べて20%増加しており、そのうち5分の2はAIによって生成されたものでした。6月には、HPがマルウェアを拡散するメールキャンペーンを傍受しましたが、そのスクリプトは「GenAIの助けを借りて作成された可能性が高い」ものでした。
ラドウェアの脅威インテリジェンス担当ディレクター、パスカル・ギーネンス氏は、TechRepublicへのメールで次のように述べている。「この分野における次の進歩は、エージェント型AIサービスのためのフレームワークの実装だと私は考えています。近い将来、より複雑なタスクを実行できる、完全に自動化されたAIエージェント群が登場するでしょう。」