悪意のある AI チャットボットの台頭: 脅威アクターは「ハックボット」を利用



人工知能の人気の波は、善意を持つ人々と、より邪悪な意図を持つ人々の両方を圧倒しました。セキュリティ専門家らは、このようなモデルの使用、つまり悪意のあるテキストや「ハックボット」の生成が、今や脅威アクターの間で有名になっていると指摘し、警鐘を鳴らしている。サブスクリプションベースのサービスにおけるターンキーサービスのレベルに達しています。

サイバー犯罪者は人工知能ツールを悪用します

一方で、サイバーセキュリティの専門家は、システムをより適切に保護するための AI 対応ツールの可能性にすぐに気づきました。脅威アクターも同様に、攻撃者が残したセキュリティのギャップを悪用するためにこれらのテクノロジーを使用することに熱意を示しています。近年、悪意のある攻撃者によって使用される AI アプリケーションの数が急激に増加しているため、セキュリティ チームは AI 関連の脅威を阻止するための十分なアプローチに焦点を当てています。

その一方で、英国のサイバーセキュリティ専門家も、未知の海域とその絶えず変化する性質に関わる新たなリスクとして人工知能を指摘しています。 NCSC は、第 1 四半期である 2024 年が最大規模となり、2022 年と 2023 年の記録を見事に上回るだろうと予測しています。同様に、狡猾な犯罪者は言語パターンをソーシャル エンジニアリングに使用しており、そのためには、有名人をビデオまたはオーディオ環境に挿入する必要がありました。フィッシング詐欺。または音声認識デバイス。 Microsoft Corporation のセキュリティ担当副社長である Vascut Jakkal 氏は、RSA Conference 2024 に出席しました。問題は、これらのツールの劣化ではなく、パスワードクラッキングがますます広範囲に利用可能になっていることです。これは、コンピュータ関連の脅威「アイデンティティ」の増加の 10 倍と関係しています。 。攻撃します。

一部の専門家は、チャットボットが独特のフレーズを使用してマルウェアを積極的に開発していると結論付けています。実際、ChatGPT や Gemini などの公的に利用可能なサービスには、悪意のある目的での悪用を防ぐための保護手段が実装されています。しかし、ハッカーは、洗練されたタイムリーなエンジニアリング技術を使用して、多くの保護を回避することに成功しました。

サービスとしてのハックボット: サイバー犯罪の増加傾向

最近の研究によると、一般に公開されている言語モデルは、通常、ソフトウェアのセキュリティ上の弱点を悪用できません。ただし、既知の欠陥に対して実行可能ファイルを生成できる可能性があるため、OpenAI の GPT-4 だけが有望な機能を示しました。上記の制限は、サイバー犯罪加害者が悪意のある活動を実行するのを支援するように設計された悪意のあるチャットボットのプロトタイプの作成を促進したと思われます。

これらはダークウェブのフォーラムやマーケットプレイスで宣伝され、攻撃者を雇用して悪用する権限を提供し、サービスとしてのハックボット モデルを促進します。 Trustwave SpiderLabs チームが 2023 年 8 月に公開した最近のブログ投稿の 1 つは、利益を目的として複数の隠れた Web 掲示板でホストされている悪意のある言語パターンの量が増加していることを示しています。

Trustwave は、これらのハッカーの既知の悪意のある言語パターンの 1 つである WormGPT パターンを 2021 年 6 月にリリースしました。このアプローチは、ダークウェブ上でホストされているハッキング施設からボットがサイバー攻撃を導入する機器で発生する可能性があります。 2023 年 7 月に生成された FraudGPT は、Telegram に到達する前に Netenrich の脅威研究者によって初めて発見されました。

これらのツールを使用すると、攻撃者はフィッシングメール、ディープフェイク、音声クローンなどのソーシャル エンジニアリング攻撃で使用される資産を操作できます。しかし、その作成者は、その真の価値は脆弱性を悪用することにあると主張しています。これにより、ハッカーは特定の脆弱性に関するコードをこれらの悪意のあるテンプレートに挿入することができ、理論的には、攻撃者が試行できるいくつかの概念実証 (PoC) エクスプロイトが生成される可能性があります。

これらの製品は、ランサムウェア複合体に直接リンクされているランサムウェア・アズ・ア・サービス (raas) モデルでランサムウェアが展開されているのと同じように、ダークウェブ上の秘密市場で販売されており、ハッカーはハックボットを使用するために毎月のライセンス料を請求されます。今日、多くの企業が直面している問題です。

WormGPT は最初に導入された大規模な悪意のある言語パターンですが、BlackHatGPT、XXXGPT、WolfGPT などの他の悪意のある非倫理的な言語パターンがすぐに続き、サイバー ブラック マーケットの新しい市場セグメントを形成しました。

ハッキングボットの有効性: 広告か、それとも本当の脅威か?

Trustwave が実施した調査は、推奨ツールの結果を正規のチャットボットによって生成された結果と並べて比較することによってその効率性をテストするために行われたものとは対照的に、その結​​果は、 ChatGPT が実際に正しい方法で Python マルウェアを作成できることを示しました。合図。これを行うには、展開前にコードがホワイトハットであり、コードの出力にもさらなる変更が必要であることを示すメッセージを問題に送信する必要がありました。

ChatGPT はフィッシング攻撃のために実際のテキスト メッセージを送信できる可能性がありますが、指示コマンドはこの効果に非常に特化している必要があります。 ChatGPT は通常、ユーザーが何か間違ったリクエストをした場合にのみこれに依存します。このため、これらのチャットボットは、サイバー犯罪者や AI にとって、ページやマルウェアを作成するために面倒な作業を行う代わりに、チャットを攻撃するためのより簡単な方法と見なすことができます。

この業界は新しい業界であり、脅威は依然として絶えず変化していますが、企業は現在の保護レベルを真に認識する必要があります。 AI システムに氾濫するコンテンツや文化的特徴を悪用して、より強力な AI セキュリティ プログラムと ID 管理ツールを構築することによってのみ埋めることができる誤った情報のギャップを生み出す可能性があります。

増大する問題に対する解決策の正当性については、依然として議論の余地がある。しかし、最近のランサムウェアの種類は、サイバー犯罪者がソフトウェア開発者の開発速度に匹敵する、あるいはそれを超える可能性があることを示しています。