
セキュリティチームを時代遅れにする可能性のある3,000万ドルの賭けが、サイバーセキュリティ界最大の議論を巻き起こした。プロフェット・セキュリティは火曜日、「自律型AIディフェンダー」の導入に向けて3,000万ドルを調達したと発表した。これは、人間のチームでは到底不可能なほど迅速にセキュリティ脅威を調査する人工知能だ。業界関係者の間で話題になっているのは以下の点だ。組織が大量のアラートに埋もれ、助けを切望している一方で、専門家は、完全に自律的なセキュリティ運用は危険な神話であり、企業をこれまで以上に脆弱にする可能性があると警告している。
数字は衝撃的な事実を物語っています。この記事を読んでいる間にも、貴社のセキュリティチームは1日あたり4,484件ものセキュリティアラートに埋もれており、アナリストの業務量が膨大であるため、その67%は無視されています。一方、サイバー犯罪による被害額は2027年までに23兆ドルに達すると予想され、サイバーセキュリティ専門家は世界中で約400万人不足しています。Prophet Securityの画期的な解決策とは?眠ることも休むこともなく、3分以内にアラートを調査できるAIです。多くのチームが報告している30分という基準と比べてみてください。
3000万ドルの約束:眠らないAIディフェンダー
コーヒーブレイクも病欠もせず、人間のアナリストが眠っている間にセキュリティ脅威を処理するAIをご紹介します。Prophet SecurityのAgentic AI SOC Analystは、「人間のセキュリティ専門家のように行動するAI」とでも言うべきもので、単なる自動化をはるかに超える全く新しいタイプの人工知能です。人間の指示を待つ従来のセキュリティツールとは異なり、このシステムはIT環境全体にわたるセキュリティアラートを、人間の介入なしに自律的にトリアージ、調査、対応します。
このAIは、既にほとんどのアナリストが10年間で確認するよりも多くの脅威を調査しています。Prophetによると、同社のシステムは顧客ベース全体で100万回以上の自動調査を実施し、応答時間を10倍高速化し、誤検知を96%削減しました。SOCアラートの最大99%が誤検知となる可能性がある組織にとって、これは単なる改善ではなく、サイバーセキュリティの仕組みにおける完全な革命です。
AI軍拡競争に参入しているのはProphetだけではありません。Deloitteの2025年サイバーセキュリティ予測では、2025年までに大企業の40%がセキュリティ運用に自律型AIシステムを導入すると予測されています。また、Gartnerは2028年までにAIアプリケーションの70%がマルチエージェントシステムを採用すると予測しています。
サイバーセキュリティの専門家を夜も眠れなくさせるものは何なのか
Prophetの発表後、サイバーセキュリティの専門家たちが夜も眠れないほど不安に思っているのは、彼らがすべてを賭けている技術に根本的な欠陥があるかもしれないという点だ。素晴らしい約束にもかかわらず、一流のサイバーセキュリティ専門家たちは、自律型セキュリティシステムへの急速な動きに警鐘を鳴らしている。ガートナーは、完全に自律型のセキュリティオペレーションセンターは非現実的であるだけでなく、潜在的に壊滅的な結果をもたらす可能性があると予測している。
本当の恐怖とは?AIシステムが攻撃に対して最も脆弱なまさにその時に、企業はすでに人間による監視を減らし始めています。2030年までに、SOCチームの75%が自動化への過度な依存により基礎的な分析能力を失う可能性があります。さらに憂慮すべきことに、2027年までにSOCリーダーの30%がAIの本番環境への統合に課題に直面し、組織が人間のチームのスキルアップに注力しなければ、2028年までに上級SOC職の3分の1が空席のままになる可能性があります。真に衝撃的なのは、AIが本来阻止すべき敵に対して脆弱であるということです。NISTの調査では、AIシステムは攻撃者によって意図的に混乱させられたり「毒を注入」されたりすることが確認されており、開発者が採用できる「万全の防御策」は存在しません。
「こうした攻撃のほとんどは比較的簡単に実行でき、AIシステムに関する知識もほとんど必要ありません」と、ノースイースタン大学のアリナ・オプレア教授は警告する。その影響は恐ろしい。あなたを守るために設計されたAIが、あなたに対する武器となる可能性もあるのだ。
今この選択をする企業が全てを決める
サイバーセキュリティ業界は、AIがサイバーセキュリティを救うか破壊するかを決定づける転換点を迎えています。Prophet Securityの3,000万ドルの資金調達ラウンドは、AIを活用した防御に対する投資家の大きな信頼を示すものですが、この技術の重大な限界はもはや無視できないものになりつつあります。現在の「自律型」システムは、実際にはレベル3~4の自律性で動作しており、複雑な攻撃シーケンスを実行できますが、エッジケースや戦略的な判断については依然として人間によるレビューが必要です。真の自律性は依然として危険な幻想に過ぎません。
今後は、人間とAIの全面的な置き換えではなく、戦略的なパートナーシップへと思考を根本的に転換する必要があります。Microsoft Security Copilotは、AIによる支援によって、重要な人間による監視を維持しながら、インシデント対応者が「数時間や数日ではなく数分で」インシデントに対応できることを既に実証しています。同様に、ReliaQuestは、同社のAIセキュリティエージェントが従来の方法よりも20倍高速にアラートを処理し、脅威検出精度を30%向上させ、人間による確実な制御を実現したと報告しています。
「これは仕事を減らすことではありません」と、Prophet Securityの経営陣はVentureBeatに語った。「アナリストがアラートのトリアージや調査に時間を費やす必要がないようにすることが目的です。」
しかし、現在これらのシステムの導入を急いでいる企業は、今後何年にもわたって影響を及ぼすであろう決定を下している。サイバーセキュリティにおいて、誤った判断がもたらすコストは金銭的なものだけではないからだ。次のデータ侵害は、この選択にかかっているかもしれない。生き残る組織は、AIを人間の専門知識を完全に置き換えるのではなく、増幅させるために活用する組織となるだろう。なぜなら、敵対者がAIをAIに対して使い始めるとき、監視する者を監視する人間が必要になるからだ。