トレンドマイクロ、ユーロポールの欧州サイバー犯罪センター(EC3)、国連地域間犯罪司法研究所(UNICRI)は、AIの現在および将来の犯罪となる悪用に関するレポートを共同で作成した。このレポートには、政策立案者、法執行機関、サイバーセキュリティの専門家向けの一連の準備に関する推奨事項も含まれている。
このレポートは最近のプレスリリースで発表された。犯罪者がAIツールを攻撃ベクトルとして使用するAIの悪意を持った使用と、攻撃者がAIシステムの脆弱性を利用するAIの悪用の両方を考慮している。レポートでは、文書化されたケースである既存の使用と悪用、および将来の使用と悪用の可能性について説明している。そして、「アンダーグラウンド」フォーラムの傾向から得られた洞察も含まれている。悪意のある攻撃者との戦いを支援するために、レポートには、AIを犯罪対策ツールとして使用したり、安全なAIシステムの開発を促進したりするなどのいくつかの推奨事項が含まれている。このレポートには、ディープフェイクの悪意のある使用に関する詳細なケーススタディも含まれている。AIによって生成されたビデオまたはオーディオコンテンツは、人間が本物ではないと特定するのが困難である。レポートで著者は次のように述べている。
犯罪者がAIをどのように使う可能性があるかに関する知識を得ることで、サイバーセキュリティ業界全般、特に法執行機関が悪意のある犯罪行為の可能性を予測する能力が向上します。また、そのような攻撃の影響を予防的に防止、対応、または軽減することもできます。
レポートの大部分は、既存の使用と悪用をカバーしている。「研究成果、概念実証、または犯罪者間の議論」を含む証拠が文書化されている。そこには、以下が含まれる。
- AIで強化されたマルウェア
- AIがサポートするパスワード推測とCAPTCHA解読
- AI支援暗号化
- スマートアシスタントの悪用
これらのアプリケーションの一部はサイバーセキュリティ研究者によって作成された概念実証として存在するが、レポートではハッカーフォーラムで犯罪者によって議論されたツールが強調されている。たとえば、週額課金または月額課金でレンタルできるCAPTCHA破壊ツールや、1.4Bの資格情報を解析してパスワード生成ルールを作成できるツールのGitHubリポジトリなどである。
レポートではまた、近い将来の新規の使用と悪用の可能性を特定するために、アンダーグラウンドフォーラムでのいくつかのトレンドディスカッショントピックを調べた。これらには、AIがサポートするハッキング、暗号通貨取引、オンラインゲームにおける不正行為などがある。また、AIを使用して、さまざまなアプリケーションで実際の人間になりすますことにも大きな関心が寄せられている。例えば、Spotifyなどのサービスの詐欺や「ソーシャルエンジニアリング」攻撃の実行などがある。
ソーシャルエンジニアリング攻撃を強化できるテクノロジーの1つは、ディープラーニングを使用してディープフェイクを生成することである。これは、コンピューターで生成された、本物のように見えるオーディオまたはビデオクリップである。たとえば、ハッカーは「音声クローニング」ツールを使用して、既知の権威者を模倣し、被害者に犯罪者の銀行口座に送金するように説得することができる。レポートにはディープフェイクの「詳細」が含まれており、悪意のある使用や悪用の可能性は数多くあるが、基盤となるテクノロジーにはボイス・プロテーゼなどの積極的なアプリケーションがあり、悪用の報告は「驚くほど少ない」と述べている。ただし、ディープフェイク動画が政治家や有名人の評判を傷つけるために使われたケースもある。不正なパスポートでのディープフェイク写真が使用されたという記録もある。
レポートには、既存および将来の脅威に対処するための「準備を強化する」ためのいくつかの推奨事項が含まれている。まずは、「AI for Good」の利用である。これには、AIテクノロジーを使用して犯罪と戦うこと、信頼できるAIを構築すること、責任あるAIイノベーションを促進することが含まれる。次に、脅威の評価やリスク管理のアプローチなどの調査を日々続けることである。次に、安全なAI設計フレームワーク、AIサイバーセキュリティの技術標準、データ保護ルールを作成する。最後に、AIリテラシーの向上や官民パートナーシップや学際的なグループの育成など、外部に広げていく活動を強化する。
近年のAI機能とアプリケーションの成長は、その悪用に対する懸念に拍車をかけている。2018年、AI研究の非営利OpenAIは、「AIの悪用による悪影響を予測、防止、および...軽減する」という同様のレポートをリリースした。2019年、OpenAIは、「テクノロジーの悪意のあるアプリケーションに関する懸念」を理由に、GPT-2言語モデルのリリースを辞退した。ディープフェイクの脅威に対処するために、MicrosoftやFacebookなどのテクノロジー企業のコンソーシアムがディープフェイク検出チャレンジを作成した。そして、スタンフォード大学とカリフォルニア大学バークレー校の研究チームは、偽物の「80%以上」を検出することを目的としたディープフェイクを検出するAIを開発している。悪用を防ぐための規制を実施することも推進されている。たとえば、今年の初め、アルファベットのCEOであるSundar Pichai氏は、AIの「分別のある」規制を求め、EUは顔認識技術の禁止を検討した。