研究によると、AIは組織が最も恐れるサイバーセキュリティ上の懸念です

過半数を超える組織が、盗まれた認証情報(クレデンシャル)を上回り、現在生成型人工知能を最大のセキュリティ脅威としてランク付けしています。ディープフェイクからハイパーパーソナライズされたフィッシングまで、AI主導の攻撃の台頭はサイバーセキュリティを揺るがしており、スピードと規模によって従来の防御が圧倒されています。

The State of Passwordless Identity Assurance によると、HYPRの調査では、生成型AIおよびエージェント型AIが、ディープフェイクや従業員のなりすましを含むまったく新しいタイプの攻撃を可能にしているとしています。この調査では、調査対象の組織のほぼ2/3が、パーソナライズされたフィッシングメール(幹部を模倣するように設計されたAI生成メッセージ)によってすでに標的にされていたことが判明しました。これにより、これらの脅威がいかに急速に進化しているかが浮き彫りになっています。

フィッシングは、過去12か月に組織が直面した最も一般的なタイプのサイバー攻撃であり、その後にマルウェアとランサムウェアが続きました。これらの結果は、Cofenseの調査とも一致しており、フィッシング攻撃の発生率が加速していることが分かります。2025年にはスパムフィルターが19秒に1通のフィッシングメールをフラグ付けしており、前年の42秒に1通から増加しています。

スピードこそが要だ

回答者のほぼ40%が、過去12か月で何らかの生成型AI関連のセキュリティインシデントを経験したと報告しました。懸念は高まっており、回答者の43%が、過去1年のサイバーセキュリティにおける最も重要な変化としてAI主導の攻撃を挙げています。

しかし、あまりにも多くの組織が、被害が起きた後になってようやく対応しているのが実情です。5人に3人の回答者が、後知恵によるコスト(hindsight tax)を負担しており、侵害がすでに発生した後にのみサイバーセキュリティ予算を増やしたと述べています。

AIの時代において、そのやり方はもはや十分ではありません。AIは、フィッシングやその他のサイバー攻撃の規模、スピード、そして有効性を高めています。ほとんどのアイデンティティに基づく攻撃は数時間以内に検知されますが、AI主導の自動化により、人間の介入が起きる前にデータが盗み出され得ます。

エージェント型AIからの脅威

もう一つの新たなリスクであるエージェントコマースも、見出しをにぎわせています。HYPRによれば、自動化されたエージェントは、今年、人間よりも多くのパスワードを漏らす方向にあります。さらに、エージェントが暴走するとの報告が増えています。

AIセキュリティ企業のIrregularは最近テストを実施しました。そこでは、AIエージェントに、企業の社内データベースにある素材を使ってLinkedInの投稿を作成するよう指示しました。エージェントはハッキング対策のプロトコルを回避し、結果として機密のパスワード情報を公開してしまいました。別のケースでは、AIエージェントがアンチウイルスソフトを回避して、マルウェアを含むファイルをダウンロードしました。

0

                    シェア

0

                閲覧数
            

            

            

                Facebookで共有Twitterで共有LinkedInで共有

タグ: AIAI AgentsCybersecurityDeepfakesGenerative AIPhishing

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン