コンプライアンス
急速に進歩するディープフェイクが現実的な脅威に
残念なことに、報告された事例からは、ディープフェイクの技術が非常に急速に進歩していることが明らかです。このビデオ通話の事例は、利用されたコンテンツの精度についての議論はあるものの、私たちを取り巻く技術が急速に進歩し続けていることを示しています。このような時代においては、サイバーセキュリティ業界全体、そして規制当局および政府は準備を整えておく必要があります。
2020年4月、史上初となる悪質なディープフェイクによるビデオ通話の事例が報告されました。長期にわたってトレンドマイクロが予測してきた脅威が現実のものとなりつつあります。
トレンドマイクロはこれまで30年以上、世界中の企業組織や政府機関といった法人のお客様から個人のお客様までのデジタル社会の安全を守ってきました。その取り組みの一環として、セキュリティ専門化の視点から未来の脅威を予測した「セキュリティ脅威予測」レポートを公開し、早期の注意喚起を行っています。この中でも弊社は「ディープフェイク」の技術の高度化を数年前から警告してきました。ディープフェイクとは、本物に見せかけることができるように設計され、人工知能(AI)を利用して作成された音声や映像のコンテンツです。
残念なことに、報告された事例からは、ディープフェイクの技術が非常に急速に進歩していることが明らかです。このビデオ通話の事例は、利用されたコンテンツの精度についての議論はあるものの、私たちを取り巻く技術が急速に進歩し続けていることを示しています。このような時代においては、サイバーセキュリティ業界全体、そして規制当局および政府は準備を整えておく必要があります。
欧州連合(EU)や米国連邦取引委員会(FTC)などの組織は、今後発生しうるAIの悪用や乱用を抑制するために、新たな規制による積極的な取り組みを継続しています。
今セキュリティ業界のリーダーは、予測される脅威モデルとしてディープフェイクを考慮すべきであり、続いて業界全体がAIの悪用による詐欺に対処する方法を研究するべき時であると言えます。
「ディープフェイク」とは何か
ディープフェイクとは、機械学習の一部である "ディープラーニング "と "フェイクメディア "を組み合わせた言葉と捉えることができます。ディープフェイクのコンテンツを作成するには、少しずつ異なる様々な手法が存在します。しかし一般的には、「オートエンコーダ(自己符号化器)」と呼ばれる深層ニューラルネットワーク技術が、映像の入力を受け、圧縮し、それを再構築するようにトレーニングされます。これを、例えばAさんとBさん2人の顔の映像ストリームを入れ替えて行うことで、Aさんの表情やジェスチャーをBさんに似せることができます。このようなトリックを使えば、どんな人の映像にも効果的に言葉を吹き込むことが可能になります。
報告された事例では、英国、ラトビア、エストニア、リトアニア、オランダの議員たちが、ロシアの野党指導者アレクセイ・ナワリヌイ氏の参謀であるレオニード・ボルコフ氏とビデオ通話をしている、と信じ込まされました。ビデオ通話に参加した政治家の一人が投稿したスクリーンショットを見ると、この偽ビデオがいかに本物そっくりに作成されていたかがわかります。これは、ディープフェイクの技術がわずか数年で大きな進歩を遂げたことを示す例となっています。
さらに、他の概念実証(Proof-of-concept、PoC)の例も報告されてきており、ディープフェイクの技術が今後どのように進化していくのかが注目されています。
警鐘
ディープフェイクの技術を巧みに使いこなす者にとって、偽情報を政府の上層部に拡散させる機会は、ほぼ無限にあると言えます。さらに問題となるのは、例えば、敵対する国家や恐喝を目的とするサイバー犯罪者によって、改ざんされた動画が選挙に立候補する有権者の信頼を損なうために利用されるようなケースです。他にも、同じディープフェイクの技術が、財務・会計担当者に虚偽の送金指示を送る「ビジネスメール詐欺(BEC)」の手口に利用される可能性もあります。
例えば、企業の最高経営責任者(CEO)がZoom経由で指示をする姿を想像してみてください。多くの社員を納得させるには十分でしょう。実際、この手口は2019年にイギリスの重役を騙し数十万円を会社から送金させるために使われた音声版のディープフェイクですでに成功しています。トレンドマイクロによる2020年セキュリティ脅威予測では、ディープフェイクがやがて企業詐欺の最先端になると予測しています。
次に何が起こるか
金銭的利益を動機とする恐喝やソーシャルエンジニアリング、あるいは民主主義を揺るがすための影響力の行使は始まりにすぎません。ある専門家は、AI技術がさらに進化してあらゆる場面に存在するようになると、説得力のあるディープフェイクを作成する能力を、すべてのスマートフォン利用者がこの5年のうちに手にすることになるだろう、と主張しています。では、私たちはどうすればいいのでしょうか。
企業の視点からは、セキュリティチームがこれに備える必要があります。そのために、今回のような事例や本記事のような解説に注目し、ディープフェイク技術による攻撃の動向を理解するようにしてください。例えばトレンドマイクロは2020年末、国連や欧州警察と協力して、AIの悪用とディープフェイクの今後を研究したレポートを発表しています。
また、数年以内にAIとディープフェイクがサイバー攻撃で活発に悪用されることを見据えています。今年のRSAカンファレンスで発表される 「Project 2030」に注目してください。今できることとして、まずは偽物を判別するためのトレーニングや、分析ツールを改善していく必要があります。 悪意のあるAIとの戦いにはまだ長い道のりがあります。これらの脅威を事前に理解して対処を検討しておくことで、「備えあれば憂いなし」という言葉の通り、戦術的に優位に立つことができます。
参考記事:
- 「Weaponized Deepfakes Are Getting Closer to Reality」
By Rik Ferguson
翻訳: 室賀 美和(Core Technology Marketing, Trend Micro™ Research)