サイバー攻撃

ディープフェイクとは?危険性や見分け方、有効な対策を解説

Written by WizLANSCOPE編集部

ディープフェイクとは?危険性や見分け方、有効な対策を解説


ディープフェイク(Deepfake)とは、生成AIやディープラーニングなどの人工知能技術を用いて、人物の顔や声を合成し、本物そっくりの偽映像や音声を作成する技術です。

映像制作の効率化などに寄与するメリットがある一方で、近年はフェイクニュースの拡散や情報操作、詐欺やなりすましなどの犯罪に悪用される事例も相次いでいます。

企業・組織が、ディープフェイクを悪用したサイバー攻撃のリスクを低減するためには、検知ツールやセキュリティシステムの導入といった技術的対策に加え、従業員へのセキュリティ教育などの組織的対策をあわせて実施することが重要です。

本記事では、ディープフェイクの危険性や見分け方、有効な対策などを解説します。

▼本記事でわかること

  • ディープフェイクの概要
  • ディープフェイクの危険性
  • ディープフェイクの見分け方
  • ディープフェイクへの対策

「ディープフェイクとは何か」「どういった危険性があるのか」などを知りたい方はぜひご一読ください。

ディープフェイクとは


ディープフェイク(Deepfake)とは、生成AIやディープラーニングなどの人工知能技術を用いて、人物の顔や声、既存の画像・映像・音声などを加工・合成し、本物のように見える映像や音声を生成する技術です。

この技術の基盤となる「ディープラーニング」は、機械学習の一種であり、大量のデータから特定のパターンや規則を学習することで、高度な認識・予測・生成を可能にします。

AIが映像の特徴や音声の抑揚、話し方などを学習することで、人間が見ても本物と見分けがつかないほど高精度なコンテンツを生成できるようになっています。

ディープフェイクの主な活用例として、次のようなものが挙げられます。

  • CG制作の負担軽減し、映像制作を効率化する
  • AIアナウンサーを活用し、ニュースを自動で読み上げる
  • 翻訳後の言語にあわせて口の動きを調整することで、自然な吹き替え映像を作成する

一方で、専門的なCG技術を持たない者でも、高精度な映像・音声の生成ができるようになったことで、ディープフェイクを悪用した犯罪が世界的に増加しています。

例えば、企業の経営者の声をディープフェイク技術で模倣し、部下に対して「特定の口座へ送金するように指示する」といった、音声によるなりすましの詐欺事件が報告されています。

声が本人そっくりに再現されている場合、メールなどの文章による指示よりも本物だと信じてしまいやすく、詐欺だと見抜くことは難しいでしょう。

日本国内でもディープフェイクを悪用した犯罪のリスクが指摘されており、企業・組織には、ディープフェイク技術の脅威とリスクを正しく理解したうえで、適切な対策を講じることが求められています。

ディープフェイクの危険性とセキュリティリスク


ディープフェイク技術は、映像制作の品質向上や利便性の向上に寄与する一方で、悪用された場合には、次のような重大なセキュリティリスクを引き起こす危険性があります。

  • 詐欺・なりすまし
  • 不正認証
  • 誤情報の拡散

それぞれのリスクについて、詳しく確認していきましょう。

詐欺・なりすまし

ディープフェイク技術を活用することで、人間が見ても本物と見分けがつかないほど高精度な人物の顔や声を生成できるようになります。

これにより、次のような「なりすまし」による詐欺行為が発生する恐れがあります。

  • 偽の音声を生成し、企業幹部になりすまして送金を指示する
  • 知人になりすまして、ビデオ通話で金銭を要求する

近年では、恋愛感情を利用して金銭を騙し取る「ロマンス詐欺」に、ディープフェイクが悪用されるケースも報告されています。

不正認証

高度化したディープフェイク技術により、「顔認証」や「指紋認証」など、生体情報を用いた認証が突破される可能性が指摘されています。

例えば、オンライン上で本人確認が完結するシステムでは、顔写真付きの身分証明書の画像と本人の顔画像の提出を求められることがあります。

このような仕組みが、ディープフェイクによって突破されるリスクがあるとされています。

具体的には、不正に入手した運転免許証の写真を利用し、ディープフェイクで精巧な顔画像を生成してシステムに送信することで、本人確認が成立してしまう恐れがあります。

誤情報の拡散

ディープフェイクによって生成された高精度な偽画像や偽映像が拡散されることで、誤情報の拡散が加速するリスクがあります。

実際に、2025年にはある自治体の公式Xアカウントが、通報者から提供されたクマの画像を投稿し、注意喚起を行なったものの、提供された画像がフェイク画像だったことが判明し、話題となりました。

自治体は、「今後の情報発信においては正確性と迅速性を高められるように努める」と説明しましたが、画像や映像の真偽を十分に確認せず発信してしまうと、企業・組織の信用を損なう恐れがあります。

ディープフェイクが悪用された事例


ディープフェイク技術を悪用された被害事例を2件紹介します。

AI音声を悪用したなりすまし詐欺

2019年、イギリスのあるエネルギー企業のCEOが、ディープフェイクを用いた音声詐欺によって22万ユーロ(約2,600万円)を騙し取られる事件が発生しました。

報道によると、親会社のCEOを装う人物から電話があり、ハンガリーの仕入先の口座へ22万ユーロを送金するよう指示されたとされています。

電話を受けた被害企業のCEOは、以下の理由から相手を本物と信じ、送金に応じてしまいました。

  • 声の調子や話し方が親会社のCEOと完全に一致していた
  • 電話の相手が自分の名前を正しく呼んでいた

しかし、2回目の送金を要求されたことで不審に思い、親会社へ直接確認したところ、そのような指示が行われていないことが発覚しました。

企業のCEOなどの経営層はメディアへの露出が多く、顔や音声、話し方などのデータを収集しやすいため、ディープフェイクの標的になりやすいことが指摘されています。

ディープフェイク映像によるなりすまし詐欺

2024年2月、香港の多国籍企業の会計担当者が、ビデオ会議中にCFO(最高財務責任者)を装った詐欺グループに騙され、総額2億香港ドル(約38億円)を送金する事件が発生しました。

香港警察の発表によると、会計担当者のもとに、イギリス本社のCFOを名乗る人物から以下のようなメールが届いたとされています。

  • ある取引のため、香港支社の口座を操作する必要がある
  • この件についてビデオ会議を開催するため、参加してほしい

メールに記載されたURLからビデオ会議に参加すると、香港支社からイギリス本社へ異動した同僚も会議に参加しているように見えたため、担当者は指示が正規のものと判断し、指示通りに送金手続きを行いました。

しかし、ビデオ会議で映されていた人物の映像は、インターネット上の映像をもとに生成されたディープフェイク映像であり、詐欺グループが巧妙に作り上げた偽の映像でした。

実際に映像を目にすると、本物と区別することは容易ではなく、正当な指示だと信じてしまう可能性が非常に高いです。

ディープフェイクを見分ける方法


ディープフェイクによって生成された映像は非常に精巧であり、本物と見分けることは容易ではありません。

しかし、次のようなポイントに注目することで、フェイク動画を見抜ける可能性があります。

  • 動作や表情の不自然さ
  • 顔と体の整合性
  • 影の位置や動き
  • 瞳の動き

ディープフェイクは既存の映像や画像をもとに生成されるため、まばたきや表情の変化が不自然に繰り返される場合があります。

また、顔と体を別々に合成している場合、会話中の表情変化が乏しい、目線が不自然にずれるといった違和感が生じることがあります。

さらに、影の位置が自然光の動きと一致しない、あるいは瞳の動きが極端に少ない場合も、ディープフェイクの可能性があると考えられます。

ツールやシステムを用いて技術的にフェイク動画を検知する方法もありますが、まずは実際に画像や映像を目にする人が、違和感に気がつくポイントを知っておくことが大切です。

ディープフェイクへの対策


ディープフェイクを用いたなりすましや不正認証のリスクを低減するためには、次のような対策が有効です。

  • ディープフェイク検出ツールの導入
  • 情報源の信頼性確認
  • 情報セキュリティ教育の実施

ディープフェイク悪用の被害を防ぐには、技術的対策と人的対策の両面から取り組むことが重要です。

詳しく確認していきましょう。

ディープフェイク検出ツールの導入

ディープフェイク悪用の脅威が拡大する中、多くの企業がディープフェイク検出技術を備えたセキュリティツールの開発・提供を進めています。

例えば、Microsoftが提供する「Microsoft Video Authenticator」などが挙げられます。

このツールは、写真やビデオ通話中の映像を解析することで、それが人工的に生成されたコンテンツであるかを検知することが可能です。

このようなディープフェイク検出ツールを活用することで、ディープフェイクによる詐欺やなりすましの被害リスクを低減することができます。

参考:虚偽情報対策に向けた新たな取り組みについて – News Center Japan

情報源の信頼性確認

ディープフェイク技術によって生成された画像や映像は非常に精巧であり、本物かどうかを見分けることは容易ではありません。

そのため、画像や映像だけを見て真偽を判断するのではなく、情報の出所を確認し、信頼できる内容かどうかを検証する習慣を身につけることが重要です。

ニュースやSNSで拡散される情報についても、複数の信頼性の高い情報源と照合することで、フェイク情報に惑わされるリスクを軽減できます。

特に、政治的な発言や緊急情報に関しては、公式機関の発表や信頼できる報道機関の情報を優先的に確認することが重要です。

また、「金銭の送金」などを促すビジネスメール詐欺が疑われる場合は、電話やチャットなど別の手段を用いて、必ず本人に直接確認するようにしましょう。

情報セキュリティ教育の実施

どれほど高精度な検知ツールを導入しても、従業員の意識が低いままでは、フェイクニュースを安易に拡散してしまったり、なりすましに騙されたりするリスクを十分に防ぐことはできません。

そのため、企業・組織では情報セキュリティ教育を徹底し、従業員がディープフェイクを悪用した犯罪の手口を理解することが欠かせません。

教育の中では、実際のなりすまし詐欺や偽情報拡散の事例を紹介し、それに対する適切な対方法を学ぶ機会を設けることが重要です。

こうした取り組みを、継続的かつ定期的に行うことで、組織全体のセキュリティ意識を高めることができます。

関連ページ

情報セキュリティ教育の必要性とは?具体的な実施手順も解説

AI活用で高度化するメール攻撃

本記事では、ディープフェイクを悪用した「なりすまし詐欺」や「不正認証」などのリスクについて解説しました。

近年では、ディープフェイク技術にも用いられる生成AIを悪用したサイバー攻撃が増加しており、特に「メール攻撃」の高度化・巧妙化が指摘されています。

従来のメール攻撃では、自然な日本語の文章を作成するハードルが高かったため、海外からの攻撃は、日本を標的にしにくい傾向がありました。

しかし近年では、生成AIを用いた自然な文章が生成できるようになったことで、攻撃の検知がより困難になっています。

例えば、攻撃者が経営層になりすまし、従業員に送金を指示するビジネスメール詐欺(BEC)では、自然で説得力のあるメール文章の生成に、生成AIが悪用されるケースが報告されています。

そのため、企業・組織には、メール認証や異常検知システムなどのツールを導入し、不審なメールを識別するためのセキュリティ対策が強く求められています。

高度化するメール攻撃対策にNDR「Darktrace」


​​AIを活用した高度なメール攻撃への対策として、NDRの活用が有効です。

NDR(Network Detection and Response)とは、ネットワーク上を流れるトラフィックを分析し、外部からの攻撃や内部不正などの兆候を可視化・検知するセキュリティ手法です。

従来の入口対策・出口対策では把握できなかったリスクを網羅的に可視化し、ネットワークへ侵入した脅威をリアルタイムで検知することで、マルウェアをはじめとするサイバー攻撃への迅速な対応を可能にします。

本記事では、AIによって異常な挙動を常時検知・遮断するAI型ネットワーク監視(NDR)「Darktrace」を紹介します。

Darktraceでは、メールを活用したサイバー攻撃を最新鋭のAI技術で防ぐ「Darktrace/Email 機能」を提供しています。

自己学習型AI​​を搭載しており、ユーザーの通信パターンやメールの文脈を理解することで、従来のシグネチャベースでは検知が難しい高度な攻撃メールにも対応可能です。

例えば、以下のような多様なメールセキュリティリスクを自動的に検知・対応します。​

  • ビジネスメール詐欺(BEC)
  • フィッシング攻撃
  • ソーシャルエンジニアリング​
  • 業務メールアカウントへの不正侵入​
  • なりすましメール
  • ​​​​​​データ窃取
  • スピアフィッシング

またDarktraceでは、メール受信から​​約1秒以内​​に危険度を分析し、以下のアクションを自動的に実行します。

  • ​不正URLの無効化
  • ​​危険な添付ファイルの削除​
  • メールの隔離

これにより、ユーザーが誤って攻撃メールを開封するリスクを未然に防ぐことが可能です。

「Darktrace/Email」は、クラウド環境で利用でき、Microsoft 365(Business Basic以上のライセンス)、またはGoogle Workspace/G Suite(Enterpriseプラン以上)の環境で導入可能です。

​「Darktrace/Email」についてより詳しく知りたい方は、下記のページをご確認ください。

関連ページ

NDR「Darktrace」のメールセキュリティ機能詳細はこちら

まとめ

本記事では「ディープフェイク」をテーマに、その概要や対策について解説しました。

本記事のまとめ

  • ディープフェイクとは、生成AIやディープラーニングなどの人工知能技術を用いて、人物の顔や声、既存の画像・映像・音声などを加工・合成し、本物のように見える映像や音声を生成する技術
  • 近年は、ディープフェイク技術を悪用した「なりすまし」や「フェイクニュースの拡散」が増加傾向にあり、不正な認証突破や金銭窃取のリスクが高まっている
  • ディープフェイクは、技術の進化とともに企業や個人に新たなリスクをもたらしており、企業・組織には、技術的対策と組織的対策の両面での対応が求められている

ディープフェイクは革新的な技術である一方、悪用されると高度な犯罪につながる危険な側面も持っています。

ディープフェイクによるサイバー犯罪から身を守るためには、企業は技術的対策と人的対策を組み合わせた総合的なセキュリティ戦略を構築し、最新の脅威に適応し続ける必要があります。

また近年では、生成AIを駆使した「メール攻撃」にも高度化・巧妙化が見られ、メールセキュリティの強化も重要になっています。

本記事で紹介した「Darktrace」は、 AIによって異常な挙動を常時検知・遮断するAI型ネットワーク監視(NDR)です。

「進化し続けるAIの脅威に対抗したい」「メールセキュリティを強化したい」という企業・組織の方は、ぜひ「Darktrace」の導入をご検討ください。

関連ページ

Darktrace(ダークトレース)