先日のブログ記事でMicrosoftは、偽情報(disinformation)に対抗する2つの新しいテクノロジを発表した。Video Authenticatorツールと、操作されたコンテンツを検出し、閲覧中のメディアが本物であることを保証するテクノロジである。
今日では偽情報が流行し、世界中に広まっている。Microsoftの支援下でPrincetonが行った調査に基づくブログ記事によると、2013~2019年にかけて、世界中のさまざまな国が、注目すべき人々に対する中傷、公衆の誘導、あるいは議論の二極化といった影響活動の標的にされている。パブリッククラウドプロバイダとしてのMicrosoftは、Defending Democracy Programによってこの偽情報との戦いに参加するとともに、プログラムを通じてAccountGuardなどのセキュアキャンペーンを支援し、ジャーナリズムの保護にも力を注いでいる。
偽情報は多様な形式で提供されるため、Microsoftは問題のさまざまな面に対応すべく、2つの異なるテクノロジを開発している。ひとつは"ディープフェイク(deepfake)"に対抗するものだ。ディープフェイクとは、写真やビデオ、あるいは音声ファイルといったオンラインメディアを、AI(Artificial Intelligence)を使って検出困難な形で操作したもので、例えば、実際には行っていない場所にいたように見せかけたり、言っていないことを言ったように見せかけることが可能になる。これらに対して、MicrosoftのVideo Authenticatorは、写真やビデオを分析して採点することで、それが人為的に操作されたものである確率を判定する。
Microsoftが発表したもうひとつのテクノロジは、閲覧しているコンテンツが本物か、あるいは操作されたものかの識別を支援するためのものだ。このテクノロジは2つのコンポーネントで構成される。
- Microsoft Azureに組み込まれ、コンテンツ制作者がコンテンツにディジタルハッシュと証明書を付加できるようにするツール。
- ブラウザ拡張あるいは他の形式で提供されるリーダ。リーダは証明書のチェックとハッシュの照合が可能で、コンテンツが本物であること、変更されていないこと、および製作者の詳細な情報を、高い正確度で通知することができる。
Authenticator(鑑定機能)は偽情報と戦う上で不可欠なものだ。しかも、戦いはこれで終わりではなく、Redditのスレッドの発言にあるように、さらなる軍拡競争が起きる可能性がある。
フェイク検出AIが発達すれば、それによってディープフェイクAIも改善される可能性があります。ディープフェイクAIのこれまでのトレーニング方法に加えて、次のようなことを考えてみてください。結果をフェイク検出AIに転送して、もし"フェイクではない"と言われれば、ディープフェイクAIとしてはOKです。逆に"フェイクである"と言われれば、ディープフェイクAIはトレーニングが必要である、ということなのです。
Authenticatorがレースに勝てないかも知れない理由は他にもあります。
- ディープフェイクAIが秘密裏にトレーニング可能であるのに対して、フェイク検出AIは公開されたものであること。
- ディープフェイクAIにはトレーニング素材が潤沢にあること。人の映った写真やビデオならば、すべてトレーニングに使用できる。これに対してフェイク検出AIでは、検出モデルを改善するために、確認済の偽画像と確認済の非偽画像を適度に混在させる必要がある。
さらに、Constellation Research Inc.のVPでプリンシパルアナリストのHolger Mueller氏は、次のように話している。
新たなテクノロジにはよい面もありますが、残念なことに悪い面もあります。クラウドによる安価な計算能力とAIによって、ディープフェイクの作成は以前よりもはるかに簡単になりました。ですから、Microsoftのようなテクノロジ大手がこの問題に取り組み、優れた検出ツールを開発するのはよいことです。他のプロバイダも追随することを願っていますが、あるレベルの検出機能が完成すれば、それを迂回する次のレベルの犯罪的な創造エネルギが生まれるという"いたちごっこ"が今後も続くでしょう。
MicrosoftのVideo Authenticatorツールは現在、Reality Defender 2020 ProgramのAI Foundationパートを通じてのみ入手可能となっている。また、コンテンツ制作者とコンシューマ向けの認証技術は、BBCの発表したProject Originというイニシアティブの一部になる予定である。