ITリーダーの80%がAIによる企業業績の悪化を認識

ITリーダーの80%がAIによる企業業績の悪化を認識

トピック — 人工知能

出版

メーガン・クラウスの画像

アフィリエイトリンクまたはスポンサーシップを通じて、ベンダーから収益を得る場合があります。これにより、サイト上の商品配置が影響を受ける可能性がありますが、レビューの内容には影響しません。詳細は利用規約をご覧ください。

データ管理会社Kompriseは、生成AIからの機密データを制限し、不正使用を監視することの重要性を強調しています。

オフィスで失望しストレスを感じている女性とAIロボット

データ管理会社Kompriseの新しいレポートによると、ITリーダーの大多数(約80%)が、従業員が生成AIツールを使用することで組織が悪影響を受けたと述べています。

この調査は4月に第三者機関によって実施され、従業員1,000人以上の米国企業のITディレクターおよび経営幹部200人を対象に行われました。調査結果は、企業内でAIツールが無許可または無許可で使用されていることを指す「シャドーAI」をIT部門が監視する必要性を強調しています。

「GenAIの使用は驚くほど簡単です」と、Kompriseの共同創業者であるクリシュナ・スブラマニアン氏はTechRepublicへのメールで述べた。「つまり、企業や顧客、従業員を危険にさらすのも驚くほど簡単なのです。」

従業員が生成 AI を使用するとどのような悪影響がありますか?

調査によると、

  • IT リーダーの 46% が、AI によって生成された出力が誤っているか不正確であると報告しました。
  • 44% が AI モデルへの機密データの漏洩を挙げています。
  • 問題を経験した人のうち 13% は、その結果が財務、顧客の信頼、ブランドの評判に直接影響を及ぼしたと報告しています。

参照: 脅威の攻撃者は、簡単にアクセスできる生成 AI チャットボットを使用してユーザーを悪用する可能性があります。

さらに、IT リーダーの 79% が、企業データを AI に送信した後に、不正確な結果や個人情報の漏洩などのマイナスの結果が組織で発生したと報告しています。

その結果、ITリーダーたちは、Kompriseが「承認されていない、管理されていないAI」と呼ぶものについて懸念を抱いています。プライバシーとセキュリティが懸念事項のトップに挙げられ、回答者の90%がこの観点からシャドーAIを懸念しています。そのうち46%が「非常に懸念している」と回答しました。

リスクを軽減するために、IT リーダーの 75% がデータ管理プラットフォームの導入を計画しており、74% はネットワーク全体での生成 AI の使用状況を追跡するために AI 検出および監視ツールに投資しています。

AI向けに非構造化データを安全に準備する方法

生成 AI を安全に使用する上で重要な要素は、モデルに公開されるデータを確実に把握することです。

大量の企業データをAIに取り込む準備をする際、ITチームの73%は機密データを分類し、ワークフロー自動化を用いてAIによる利用を制限するというアプローチをとっています。タグやキーワードを用いる非構造化データ管理ソリューションは、これらのキーワードを活用してデータを分類することができます。

非構造化データを準備するための他の一般的な戦術は次のとおりです。

  • 自動スキャンおよび分類ツール。
  • セマンティック検索と RAG (検索拡張生成) のためにベクター データベースにデータを保存します。
  • 自動化された AI データ ワークフローと監査に他のテクノロジーを使用する。

シャドー AI のリスクを軽減するために IT チームが他にできることは何でしょうか?

ITリーダーは組織内でのAIツールの使用を制限したいと考えるかもしれません。しかし、AI推論やトレーニングに使用できるデータセットを制限したいと考える人もいるでしょう。

約74~75%の組織が、社内でどのようなAIが活用されているかを把握するために、データ管理ツールやAI検出ツール、または監視ツールを活用しています。さらに55~56%の組織が、従業員研修と並行してアクセス管理ツールやデータ損失防止ツールも活用しています。データ管理ツールは、監査やワークフロー管理において広く利用されており、データ漏洩の削減に役立っています。

「IT部門は、教育、研修、そしてポリシー策定において、真に主導的な役割を果たす必要があります」とスブラマニアン氏は述べた。「これらは連携して機能しなければなりません。従業員はAIを安全に利用し、機密性の高い企業データを公開AIアプリケーションに公開しないよう、リスクを理解する必要があります。」

回答者の約24%は、AIソリューションを評価するチームを保有しているものの、ガイドラインや管理策はまだ導入していないと回答しました。シャドーAIリスクへの対策を講じていないと認めたのはわずか1%でした。

記事をシェア

こちらもご覧ください

  • ランサムウェアがビジネスモデルとして成長し、2025年にはサイバー攻撃が47%増加
  • Metaはリスク評価の90%を自動化しているが、元幹部は「より高いリスクを生み出している」と語る
  • GoogleのAI EdgeギャラリーでスマートフォンでAIモデルを実行できる
  • 人工知能:さらに読むべき記事
メーガン・クラウスの画像

ミーガン・クラウス

メーガン・クラウスは、B2Bニュースおよび特集記事の執筆で10年の経験を有し、Manufacturing.netのライター、そして後に編集者として活躍しました。彼女のニュース記事や特集記事は、Military & Aerospace Electronics、Fierce Wireless、TechRepublic、eWeekに掲載されています。また、Security Intelligenceではサイバーセキュリティに関するニュースや特集記事の編集も担当しました。フェアリー・ディキンソン大学で英文学の学位を取得し、クリエイティブライティングを副専攻しました。

Tagged: