AI技術の進化により、本物と見分けがつかないほど精巧な偽の動画や偽音声を作成する「ディープフェイク」が急速に普及しています。企業の経営層を装った金銭要求や、顔認証の突破など、その脅威は日々深刻化しています。
この記事では、ディープフェイクの脅威と具体的な被害事例、そして組織や個人が今すぐできる3つの効果的な対策について解説します。
目次
ディープフェイク(Deepfake)とは、「ディープラーニング(深層学習)」と「フェイク(偽物)」を組み合わせた造語です。AIを用いて音声や映像、テキストなどを合成し、本物と見分けがつかないほどリアルな偽のコンテンツを生成する技術を指します。
当初はエンターテインメント目的で開発されましたが、その後に急増しているのは主に金銭的利益の獲得、詐欺、世論操作などを目的としたサイバー犯罪者の利用です。誰もが簡単に高精度の偽コンテンツを作成できる時代になり、その脅威は組織や個人にとって無視できないものとなっています。
■ディープフェイクによる被害のイメージ
ディープフェイクの生成に使用されているのは、主に「GAN(Generative Adversarial Network:敵対的生成ネットワーク)」と呼ばれるAI技術です。GANでは「偽物を生成するAI(ジェネレーター)」と「偽物を見破るAI(ディスクリミネーター)」を競わせることで、より精度の高い偽コンテンツを生成する仕組みになっています。
具体的には、大量の顔画像や音声データを学習させることで、特定の人物の表情や声色をリアルに再現可能です。学習データが多ければ多いほど、生成される偽コンテンツの精度は向上します。最近では、一般向けのアプリやツールが普及し、専門的な知識がなくても誰でも簡単にディープフェイクを作成できる環境になっている点が、セキュリティ上の大きな懸念となっています。
■GAN(敵対的生成ネットワーク)の仕組み
一口にディープフェイクといっても、その種類や仕組みはさまざまです。ここでは、近年特に問題視されている代表的なディープフェイクの種類を2つ紹介します。
AIで生成されたディープフェイク動画は、企業や組織にとって深刻なデータセキュリティ上のリスクとなります。顔の特徴や動き、輪郭、肌のトーン、髪や目の色、さらにはボディランゲージまでをAIに学習させることで、背景を含めた映像を高い精度で再現することが可能です。
その結果、本物と見分けがつかないほど現実的な動画が作成されるケースも少なくありません。政治家や有名人といった注目度の高い人物を装ったものだけでなく、特定の個人の特徴を忠実に再現した動画が生成されることもあります。
ビジネスの現場では、経営層になりすました偽の指示動画が作成され、従業員をだまして不正送金や情報漏洩を引き起こすといった被害も報告されています。
ディープフェイクアタックデモ動画(トレンドマイクロ制作)
※1:11から音声が流れます。
音声クローニングとは、オンライン上で入手できる音声データをもとに、AIが特定の人物の声を再現する技術です。学習データには、ボイスメールや通話音声、ポッドキャスト、ニュース番組での発言などが利用されるケースが一般的です。
AIはトーンやピッチ、話し方の癖、発音の特徴、声色に表れる感情など、複数の要素を分析して音声を生成するため、元の声と非常によく似た説得力の高いものになります。
近年では、後述するビジネスメール詐欺や振り込め詐欺など、音声を悪用した攻撃に使われるケースが増加しており、組織にとって見過ごせない脅威となっています。
ディープフェイクはAIによる高度な技術を使用しますが、チープフェイクは従来の編集技術を使用する点が違いです。
チープフェイクとはAIを使わずに、手動で作成される偽のコンテンツのことです。デジタル時代以前から存在する手法であり、攻撃者は長年にわたりその手口を磨いてきました。緊迫感や感情的なストレスを感じている人をだますことを目的とした、画像・音声・文章などのコンテンツが用いられます。
ディープフェイクのほうが精巧で見分けにくいですが、チープフェイクも状況次第では人を誤認させてしまうおそれがあります。いずれも悪意を持った利用により、個人や組織に深刻な被害をもたらす可能性があるでしょう。
■ディープフェイクとチープフェイクの主な違い
ディープフェイク
チープフェイク
AI/ディープラーニング
基本的な編集ツール
極めて現実的
低から中程度のリアリズム
高い技術力と計算資源が必要
少ない労力で作成可能
検出が困難
検出が容易
巧妙な詐欺に利用
迅速な偽情報拡散のために使用
チープフェイクには、以下のような手法が用いられます。
<チープフェイクに使われる主な手法>
・フィルムを物理的に切断・接合する
・記録されたフレーズや文章の断片を盗用またはつなぎ合わせる
・望ましい効果や印象を伝えるために、動画や音声コンテンツの再生速度を調整する
・重要人物になりすますために、容姿や声が似ている人物を起用し、撮影・録音する
・低予算・低品質のコンピューター生成画像(CGI)、モーションキャプチャ技術などを使用する
これらの手法は古典的ではありますが、今でも効果的な攻撃手段として利用されています。
ディープフェイクは、単なるフェイクコンテンツにとどまらず、情報操作や詐欺、不正アクセスなど多様なセキュリティリスクを引き起こします。ここでは、組織や社会に特に大きな影響を及ぼす代表的なリスクについて解説します。
ディープフェイクにより政治家や有名人の発言をねつ造した動画が作成され、SNSで拡散されることで、世論操作や選挙妨害に利用されるリスクがあります。災害や事件に関する偽のニュース映像が拡散し、社会的な混乱を招く可能性も指摘されています。
また、映像や音声が「証拠」として扱われてきた前提が揺らぎ、裁判やジャーナリズムの現場でも真偽の見極めが難しくなっているのが現状です。偽情報の拡散によって、企業のブランドイメージや評判が損なわれるケースもあり、風評被害対策の観点からも無視できない問題です。
トレンドマイクロの実態調査では、ディープフェイクの悪用に遭った人の54.4%が「フェイクニュースやデマ情報に煽動される」被害を経験したと報告されています。
ビジネスメール詐欺(BEC:Business Email Compromise)とは、取引先や経営層になりすまして従業員をだまし、不正な送金を行わせる詐欺行為です。2024年2月には、香港の多国籍企業において、オンライン会議上でディープフェイク技術を使い最高財務責任者(CFO)になりすました人物が、約2,500万米ドル(約38億円)を送金させる事件が発生しました。
参考:
・CFO(最高財務責任者)になりすまして2500万米ドルを送金させたディープフェイク技術
ビジネスメール詐欺の代表的な手口としては、取引先を装った偽の請求書による送金指示や、経営層になりすまして緊急の振り込みを要求するケースが挙げられます。近年は、本人の声を再現した音声クローニングによる電話や、Web会議システム上で上司になりすます手口も確認されており、リモートワーク環境では特に注意が必要です。
■ディープフェイクによるビジネスメール詐欺のイメージ
ディープフェイクは、顔認証システムを突破する手段として悪用される可能性も否定できません。銀行のATMやスマートフォンのロック解除など、生体認証の信頼性そのものが脅かされるリスクがあります。
さらに、本人確認が必要なオンラインサービスへの不正アクセスに使われるケースも報告されています。
身分証明書の写真とディープフェイク動画を組み合わせた「なりすまし登録」が行われるなど、本人確認プロセスの前提を揺るがす問題として深刻化しているのが現状です。
ディープフェイクは巧妙化しており、見た目だけで判断するのは簡単ではありません。実際、トレンドマイクロの調査によると、ディープフェイクを「本物かどうか見分けられると思う」と回答したのはわずか1.9%で、8割以上が情報の真偽を判断できる自信がないことが明らかになっています。ここでは、動画や画像を見る際に確認したい基本的なチェックポイントを紹介します。
AIによって生成された映像では、まばたきの回数やタイミングが不自然になることがあります。極端にまばたきが少ない、あるいは不規則に多い場合は注意が必要です。
また、口の動きと音声がわずかにずれていたり、話している内容と表情の変化が一致していなかったりするケースも見られます。
特に、横を向いたときや大きく顔を動かした際に、表情やパーツの動きが不自然になっていないかを確認すると、違和感に気づきやすくなります。
ディープフェイク映像では、顔の輪郭がぼやけていたり、髪の毛との境界線が不自然に見えたりすることがあります。顔の動きに合わせて、背景が歪んだり、ずれて見えたりしないかも重要なチェックポイントです。
また、照明の当たり方が顔と背景で一致していない場合や、眼鏡・アクセサリーなどの描写が不自然な場合もあります。細部に目を向けることで、生成映像特有の違和感を見つけやすくなります。
SNS上で拡散されている衝撃的な動画や画像を、すぐに事実だと判断しないことが重要です。公式サイトや大手ニュースメディアなど、信頼できる一次情報をチェックするようにしましょう。
「拡散希望」や強い感情をあおる表現が使われている投稿は、意図的に拡散を狙っている可能性があります。複数の情報源を確認し、内容を照らし合わせることで、偽情報に惑わされるリスクを下げることが可能です。
ディープフェイクは完全に防ぐことが難しい一方で、対策を講じることで被害リスクを下げることは可能です。ここでは、組織や個人が実践しやすい主な対策を紹介します。
送金指示や機密情報の共有など、重要な判断を行う際は、メールやチャットだけで完結させないことが基本です。電話や対面など、複数の手段を組み合わせて本人確認を行いましょう。
Web会議の場合でも、事前に共有した合言葉や、第三者には答えにくい個人的な質問を用いることで、なりすましのリスクを下げられます。
特に「今すぐ対応してほしい」といった緊急性を強調する指示には注意し、一度立ち止まって確認する習慣を持つことが重要です。
組織では、送金や重要な意思決定に関するワークフローを見直し、複数人による承認プロセスを導入することで、ディープフェイクによる被害を防ぎやすくなります。
人の目だけでは見分けが難しいディープフェイクに対しては、専用の検知・検出ツールの活用が有効です。
AIによる画像・音声解析を用いて、微細なノイズや不自然なパターンを検出する技術が実用化されています。
また、ファイルの作成日時や編集履歴といったメタデータを解析し、生成AIによるコンテンツかどうかを判定する手法もあります。
検知技術と生成技術は常に進化を続けているため、最新の技術を取り入れたソリューションを選ぶことが重要です。
トレンドマイクロでは、Windows PC向けのディープフェイク検出ツール「トレンドマイクロ ディープフェイクスキャン™(ベータ版)」を提供しています。Microsoft TeamsやZoom、LINEなどのビデオ通話アプリに対応し、通話中にディープフェイクの可能性を検知した場合、リアルタイムで警告を表示することで利用者に注意を促します。
C2PA(Coalition for Content Provenance and Authenticity)は、コンテンツの来歴(出所)を記録・証明するための業界標準規格です。画像や動画が「誰によって、いつ、どのように作成されたか」を暗号技術で記録し、改ざんを防ぐ仕組みになっています。
世界的なIT企業や報道機関が参画し、業界標準としての採用が進みつつありますが、C2PA対応のカメラやソフトウェアが普及すれば、ディープフェイクとオリジナルコンテンツの区別が容易になります。
検出ツールが「偽物を見つける」ための技術であるのに対し、C2PAは「本物であることを証明する」ための仕組みです。両者を組み合わせることで、より強固なディープフェイク対策が可能になります。
組織にとって、ディープフェイクを悪用した詐欺の手口を従業員に周知し、日常的に警戒心を高めることも重要な対策の1つです。
たとえば、SNSなどで顔写真や音声を大量に公開することは、ディープフェイク生成の素材を提供することにつながります。プライバシー設定を見直し、不特定多数に公開する情報を必要最小限に抑えることで、個人がディープフェイク被害に遭うリスクを下げることができます。
また、従業員に最新の被害事例や攻撃手法を共有するなど、サイバー攻撃の情報を継続的にアップデートすることも欠かせません。定期的な研修や訓練、シミュレーションを行うことで、実際にディープフェイクに遭遇した場面でも冷静に対応できる力を養えます。
ディープフェイクは、AI技術の悪用により、個人の尊厳や企業の信頼、社会の安全を脅かす重大なリスクとなっています。技術の進歩により人間による手動検出が困難になっており、複数手段での確認、専用検出ツール、C2PAなどの多層的な対策が不可欠です。
トレンドマイクロの「Trend Vision One」は、AIを活用した法人向けのサイバーセキュリティプラットフォームとして、ディープフェイクを含む進化する脅威に対応します。エンドポイント、クラウド、ネットワーク、メールなど、IT環境全域をカバーする包括的な保護により、ディープフェイクによるなりすましや不正アクセスの抜け道を与えません。
継続的に進化するディープフェイクの脅威から組織を守り、ユーザのIDやデータ、業務環境を包括的に保護するセキュリティ対策をお探しの方は、Trend Vision Oneの導入をご検討ください。
ディープフェイクは、生成AIを用いて本物と見分けがつかないほど精巧な偽コンテンツを作成する技術です。一方、チープフェイクは生成AIを使わず、再生速度の調整や映像の切り貼り、偽物の起用など、従来の編集手法によって作られます。
ディープフェイクの方が高度で見分けにくい傾向がありますが、チープフェイクであっても実際に人を欺く可能性は否定できません。いずれも悪意を持って使われた場合、個人や組織に深刻な被害をもたらすおそれがあります。
ディープフェイク映像では、まばたきの頻度が不自然だったり、口の動きと音声がわずかにずれていたりすることがあります。また、感情表現と表情の変化が一致していない点も手掛かりになります。
加えて、顔の輪郭がぼやけている、髪の毛の境界線が不自然、背景が歪む、照明の当たり方が合っていないといった細部の違和感にも注意しましょう。
ただし、最も重要なのは情報源の確認です。SNS上の動画をすぐに信じず、公式サイトや大手ニュースメディアなど複数の情報源をクロスチェックしてください。技術の進化により人の目だけでの判別は難しくなっているため、専用の検出ツールを併用することも有効です。
送金指示や機密情報の共有など重要な判断については、複数の手段で本人確認を行う運用を徹底しましょう。メールやチャットだけに頼らず、電話や対面確認、複数承認のプロセスを設けることが基本です。
次に、ディープフェイク検出ツールの導入を検討します。AIによる画像・音声解析を活用することで、人間では見抜きにくい偽コンテンツを検知できます。併せて、C2PA対応のカメラやソフトウェアを導入し、コンテンツの来歴を記録・証明する仕組みを整えることも有効です。
さらに、従業員へのセキュリティ教育を行い、詐欺の手口や対応方法を共有しましょう。ゼロトラストの考え方、多要素認証(MFA)、AIによる異常検知などを組み合わせ、人・運用・技術を重ねた多層防御を構築することが重要です。