
AI の活用はテクノロジー業界にもさらに広がっています。
マイクロソフトは、OpenAIのGPT-4生成AIモデルを活用した製品スイートに、コードの作成と分析が可能な自然言語チャットボット「Security Copilot」を追加しました。水曜日に発表されたSecurity Copilotは現在、一部のお客様向けにプレビュー版を提供しています。Microsoftは、Security Copilotの一般提供開始時期について、メールアップデートを通じて詳細をお知らせします。
ジャンプ先:
- Microsoft Security Copilot とは何ですか?
- Security Copilot は、IT 部門が脅威を検出、分析、軽減するのにどのように役立ちますか?
- AIが運営するサイバーセキュリティは安全か?
- 攻撃者と防御者の両方がOpenAI製品を使用している
Microsoft Security Copilot とは何ですか?
Microsoft Security Copilot は、プロンプトバーとして表示される自然言語の人工知能データセットです。このセキュリティツールでは、以下のことが可能です。
- 「私の企業で発生しているすべてのインシデントは何ですか?」などの会話形式の質問に答えます。
- 要約を書きます。
- URL またはコード スニペットに関する情報を提供します。
- AI が情報を取得したときのソースを示します。
このAIは、OpenAIの大規模言語モデルと、Microsoftのセキュリティ特化モデルを基盤としています。この独自モデルは、確立されたグローバルな脅威インテリジェンスを継続的に活用しています。Azure Hyperscaleインフラストラクチャラインを既にご利用いただいている企業は、Security Copilotにも同じセキュリティおよびプライバシー機能が付属していることに気付くでしょう。
参照: Microsoft、Azure OpenAI サービスの一般提供を開始(TechRepublic)
Security Copilot は、IT 部門が脅威を検出、分析、軽減するのにどのように役立ちますか?
マイクロソフトは、Security CopilotをIT部門が人員不足とスキルギャップに対処するための手段として位置付けています。国際情報システムセキュリティ認定コンソーシアム(ISC)²は、サイバーセキュリティ分野は「専門家の不足が深刻化している」と述べています。同コンソーシアムの2022年労働力調査によると、サイバーセキュリティ分野の雇用と就労者の間には、世界全体で340万人のギャップがあります。
スキルギャップのため、組織は、経験の浅い従業員や特定のタスクにあまり精通していない従業員を支援する方法を検討する場合があります。Security Copilot はこうしたタスクの一部を自動化し、セキュリティ担当者が「侵害の存在を探す」などのプロンプトを入力できるようにすることで、脅威ハンティングを容易にします。ユーザーはプロンプトを保存し、プロンプトブックをチームの他のメンバーと共有できます。これらのプロンプトブックには、AIに尋ねた質問とその回答が記録されます。
Security Copilotは、イベント、インシデント、または脅威を要約し、共有可能なレポートを作成できます。また、悪意のあるスクリプトをリバースエンジニアリングし、そのスクリプトの動作を解明することもできます。
参照: Microsoft が 365 スイートに Copilot AI 生産性ボットを追加(TechRepublic)
Copilot は、既存の Microsoft セキュリティ製品と連携します。Microsoft Sentinel(セキュリティ情報およびイベント管理ツール)、Defender(拡張検出・対応ツール)、Intune(エンドポイント管理および脅威軽減ツール)はすべて、Security Copilot と通信し、情報を入力できます。
Microsoftは、これらのデータとユーザーが入力したプロンプトが各組織内で安全に保管されることをユーザーに保証しています。また、このテクノロジー大手はAI内に透明性の高い監査証跡を作成し、開発者がどのような質問が行われ、Copilotがどのように回答したかを確認できるようにしています。セキュリティ Copilotのデータは、他のAIモデルの学習に利用されるためにMicrosoftのビッグデータレイクにフィードバックされることはなく、ある企業の機密情報が別の企業内の質問への回答として利用される可能性を低減しています。
AIが運営するサイバーセキュリティは安全か?
自然言語AIは、過重労働や十分な訓練を受けていない人員の不足を補うことができますが、マネージャーや部門長は、コードが公開される前に人間による監視体制を構築する必要があります。AIが誤った結果や誤解を招く結果を返す可能性もあるからです。(Microsoftには、Security Copilotがミスをした場合に報告するオプションがあります。)
セキュリティ企業 Mondoo の共同創業者兼最高経営責任者である Soo Choi-Andrews 氏は、サイバーセキュリティの意思決定者がチームに AI の使用を割り当てる前に考慮すべき以下の懸念事項を指摘しました。
「セキュリティチームは、あらゆる新製品を評価するのと同じ厳密さでAIツールに取り組むべきです」と、チェイ=アンドリュース氏はメールによるインタビューで述べています。「AIの限界を理解することは不可欠です。ほとんどのツールは依然として確率的アルゴリズムに基づいており、必ずしも正確な結果を出せるとは限りません。…AIの導入を検討する際、CISOは、その技術が企業の収益向上を加速させると同時に、資産を保護し、コンプライアンス義務を遵守する上で役立つかどうかを自問自答すべきです。」
「AIをどの程度活用すべきかという点については、状況が急速に変化しており、万能の答えはない」とチェイ・アンドリュース氏は述べた。
参照:サイバーセキュリティの刃として、ChatGPTは両刃の剣です(TechRepublic)
OpenAIは2023年3月20日にデータ侵害に直面した。「オープンソースライブラリのバグにより、一部のユーザーが他のアクティブユーザーのチャット履歴のタイトルを見ることができたため、今週初めにChatGPTをオフラインにしました」とOpenAIは2023年3月24日のブログ投稿で述べた。Redisクライアントのオープンソースライブラリであるredis-pyにはパッチが適用されている。
本日現在、イーロン・マスク氏やスティーブ・ウォズニアック氏を含む1,700人以上が、OpenAIなどのAI企業に対し、「GPT-4よりも強力なAIシステムのトレーニングを少なくとも6ヶ月間即時停止」し、「共通の安全プロトコルを共同で開発・実装する」よう求める嘆願書に署名しました。この嘆願書は、AIを善のために活用し、「軍事化されたAI」などの「大規模なリスク」の可能性を軽減することを目指す非営利団体Future of Life Instituteによって開始されました。
攻撃者と防御者の両方がOpenAI製品を使用している
自然言語AIの最も収益性の高い活用方法を見つける分野におけるマイクロソフトの最大のライバルであるGoogleは、企業セキュリティに特化したAI製品をまだ発表していません。マイクロソフトは2023年1月、サイバーセキュリティ部門の事業規模が200億ドルに達したと発表しました。
セキュリティに重点を置く他の企業も、OpenAIの対話型製品の追加を試みています。Kubernetes向けセキュリティプラットフォーム「Kubescape」を開発するARMOは、2月にカスタムコントロール機能にChatGPTを追加しました。Orca Securityは1月、当時最新モデルだったOpenAIのGPT-3を自社のクラウドセキュリティプラットフォームに追加し、顧客への問題解決方法の指示書作成を可能にしました。Skyhawk Securityも、この最新AIモデルを自社のクラウド脅威検知・対応製品に追加しました。
むしろ、サイバーセキュリティのブラックハット側にいる人々にとって、もう一つの大きなシグナルとなるかもしれない。ハッカーと巨大企業は、最も防御力の高いデジタルウォールと、それを突破する方法を巡って、今後もしのぎを削り続けるだろう。
「AIは諸刃の剣であるということを認識することが重要です。セキュリティ対策には役立つ一方で、攻撃者もそれを自分たちの目的に利用しているのです」とアンドリュース氏は述べた。