Written by Aimee
目 次
ディープフェイク(Deepfake)とは、人工知能(AI)技術を使って、人物の顔や声を合成し、本物そっくりの偽映像や音声を作成する技術のことです。
AI技術の「ディープラーニング(深層学習)」と「フェイク(偽)」を組み合わせた言葉で、AIが大量のデータを学習し、本物と見分けがつかないほど精巧な合成メディアを生成します。
昨今、世間ではディープフェイク=「フェイク動画」という意味合いで用いられるケースが多く、実際の画像や映像に偽の情報を組み込んだフェイク動画を用いた、サイバー犯罪が多発しています。
「ディープフェイクの悪用」によってもたらされるリスクの例に、以下のようなものがあります。
フェイクニュース・情報操作
政治家や有名人の偽動画が作られ、選挙や世論に影響を与える。
詐欺・金融犯罪
CEOや上司の音声を偽装し、不正送金を指示する詐欺が行われる。
なりすまし犯罪
ディープフェイクを使って偽のIDカードやパスポートを作成し、詐欺や違法取引を行う。またSNSアカウントを作成し、詐欺やストーカー行為を行う。
こうしたリスクを回避するためには、ディープフェイク検出システムを導入したり、情報源のチェックを念入りに行ったりするようにしましょう。
また、以下のポイントを意識しながら映像をチェックすることで、ディープフェイクを見分けられることもあります。
▼ディープフェイクを見分ける際のポイント
- ・ 同じ動きを繰り返していないか
- ・ 顔や体の動きが不自然ではないか
- ・ 影のつき方に違和感はないか
- ・ 瞳は動いているか
この記事では、ディープフェイクの危険性、被害事例、見分け方について詳しく解説します。
▼この記事を要約すると
- ディープフェイクとは、AIの一種であるディープラーニング技術を用いて既存の画像や音声を加工・合成し、実在しない新たな映像や音声を生成する技術
- ディープフェイクによる「不正認証」や「偽情報の拡散」「金銭目的の詐欺」といったサイバー犯罪が多発している
- ディープフェイクは、技術の進化とともに企業や個人に新たなリスクをもたらしている。被害を防ぐためには、技術的な対策だけでなく、組織全体でのセキュリティ意識の向上が不可欠
ディープフェイクとは
ディープフェイクとは、ディープラーニングを活用し、既存の画像、映像、音声などを加工・合成して、実在しない新たなコンテンツを生成する技術です。
ディープフェイクの基盤となるディープラーニングは機械学習の一種であり、大量のデータを解析し、特定のパターンや規則を学習することで、より高度な判断や予測を可能にします。
この技術により、映像の特徴や音声の抑揚を学習し、本物と見分けがつかないコンテンツを生成することができます。
ディープフェイクの具体的な活用例として、以下が挙げられます。
- ・ CG制作の負担軽減による映像制作の効率化
- ・ AIアナウンサーを活用したニュースの自動読み上げ
一方で、特別な技術を持たない者でも高精度な映像・音声の生成が可能となる特性から、近年ディープフェイクを用いた犯罪が急増しています。
例えば、企業の経営者の音声をディープフェイク技術で模倣し、部下に音声で「特定の口座への送金」を指示することで、多額の金銭を騙し取る詐欺事件などが報告されています。
日本国内でもこのようなディープフェイクを用いた犯罪が増加しており、私たちはその脅威とリスクを正しく理解し、適切な対策を講じることが求められています。
ディープフェイクの危険性とセキュリティリスク
ディープフェイク技術は利便性をもたらす一方で、以下のような重大なリスクを伴います。
- 1. 詐欺・なりすまし
- 2. 不正認証
- 3. 偽情報の拡散
- 4. 法的混乱の発生
1.本人そっくりの動画や音声による「詐欺・なりすまし」
ディープフェイクを悪用することで、容易になりすましが可能となり、以下のような犯罪が発生する恐れがあります。
- ・ 偽の音声を生成し、企業幹部になりすまして送金指示を行う。
- ・ 知人になりすまし、ビデオ通話で金銭を要求する。
近年では、恋愛感情を悪用するロマンス詐欺※にも、ディープフェイクが悪用されるケースが増加しています
※ロマンス詐欺…相手の恋愛感情につけこんで金銭をだまし取る詐欺行為
2.個人の顔や声を利用する「不正認証」
高度化したディープフェイク技術は、バイオメトリクス認証(顔認証や音声認証など)によるセキュリティをも、突破するリスクを持ちます。
▼顔認証や音声認証を突破する例
- ・ 銀行の音声認証を偽装し、口座へ不正アクセスする。
- ・ 顔認証システムを回避し、スマートフォンや施設へ不正侵入する。
このような不正認証は、個人情報の漏洩や経済的損失を招き、社会全体のセキュリティを脅かします。
3.偽情報の拡散
ディープフェイクによる高精度な画像・映像が拡散されることで、誤情報の流布が加速する可能性があります。
例えば、ディープフェイクを用いて「有名企業の経営者が逮捕された」などの偽情報が拡散されると、企業の信頼が損なわれるリスクがあります。
4.ディープフェイクの偽証による法的混乱
ディープフェイクを用いた偽証が、裁判や法的手続きにおける証拠の信頼性を損なう可能性があります。
例えば、下記のようなケースが懸念されます。
- ・ 偽の証拠映像が裁判で提出され、無実の人物が有罪となる。
- ・ 被害者を陥れる目的で違法行為の映像が捏造される。
このような事例は、司法手続きの公正性が損なわれ、法的な判断が歪められるリスクを生み出します。
ディープフェイクによる被害事例
ここでは、ディープフェイク技術を悪用した実際の被害事例を2件紹介します。
事例1:CEOになりすましたAI音声による詐欺被害(約2,600万円)
2019年、イギリスのエネルギー企業のCEOが、ディープフェイクを用いた音声詐欺により22万ユーロ(約2,600万円)を騙し取られる事件が発生しました。
報道によると、ドイツに本社を持つ親会社のCEOを装った人物から、ハンガリーの仕入先の口座へ22万ユーロを送金するよう指示があったとされています。
電話を受けた被害企業のCEOは、
- ・ 声の調子や話し方が親会社のCEOと完全に一致していた
- ・ 電話の相手が自分の名前を正しく呼んでいた
などの要因から、相手を本物と信じ、送金に応じてしまいました。
しかし、2回目の送金を要求されたことで疑念を抱き、親会社へ直接確認したところ、詐欺であることが発覚しました。
CEOはメディアへの露出が多く音声データを収集しやすい特性から、ディープフェイクの標的になりやすいことが指摘されています。
事例2:ディープフェイクを悪用したビデオ会議詐欺(約38億円)
2024年2月、香港で多国籍企業の会計担当者が、ビデオ会議中にCFO(最高財務責任者)を装った詐欺グループに騙され、総額2億香港ドル(約38億円)を送金する事件が発生しました。
香港警察の発表によると、会計担当者のもとに、イギリス本社のCFOを名乗る人物から以下のようなメールが届いたとされています。
「ある取引のために香港支社の口座を操作する必要がある」
「この件についてビデオ会議を開催するため、参加してほしい」
メールに記載されたURLからビデオ会議に参加すると、香港支社からイギリス本社へ異動した同僚も会議に参加しているように見えたため、会計担当者は取引が正規のものと判断しました。
その結果、指示通りに銀行口座への送金手続きを実行しました。
しかし、ビデオ会議で確認したCFOや同僚の映像は、インターネット上の映像をもとに作成されたディープフェイク映像であり、詐欺グループが巧妙に演出したものでした。
この結果、企業は2億香港ドルを詐取される被害を受けたとのことです。
ディープフェイクを見分けるには
ディープフェイクによって生成された映像は高度に精巧であり、視覚的に識別することが困難な場合があります。
しかし、以下のポイントに注目することで、不自然な特徴を検出しやすくなります。
動作の繰り返し:表情や動作が機械的にループしていないか。
顔と体の整合性:顔の動きと身体の動作が一致しているか。
影の不自然さ:光源の位置に対して影の付き方が不自然ではないか。
瞳の動き:瞳が適切に動いているか、視線が異常に固定されていないか。
ディープフェイクは、既存の映像や画像をもとに生成されるため、まばたきや表情の変化が不自然にループすることがあります。また、顔と体を別々に合成するため、会話中の表情変化が乏しい、目線が不自然にずれているなどの違和感が生じることがあります。
さらに、影の位置が自然光の動きと一致しない、または瞳の動きが極端に少ない場合も、ディープフェイクの可能性が高いと判断できるでしょう。
ディープフェイクへの対策
ディープフェイクを悪用した犯罪から身を守るためには、技術的対策と人的対策の両面からアプローチする必要があります。
1. ディープフェイク検出ツールの導入
ディープフェイクの脅威が拡大する中、主要なセキュリティ企業をはじめ、多くの企業がディープフェイク検出技術を備えたセキュリティツールを開発しています。例として、マイクロソフト社の提供する「Microsoft Video Authenticator」などがあります。
写真やビデオ通話中の映像を解析することで、人工的に生成されたコンテンツであるかを検出することが可能です。
これらのシステムを導入することで、ディープフェイクによる詐欺やなりすましリスクを低減できます。
2. 情報源の信頼性確認
映像や音声の出所を確認し、信頼できる情報源かどうかを検証する習慣を身につけることが重要です。
ニュースやSNSで拡散される情報についても、複数の信頼性の高い情報源と照合することで、フェイク情報に惑わされるリスクを軽減できます。特に、政治的な発言や緊急情報に関しては、公式機関の発表や認証済みの報道機関の情報を優先的に参照するべきです。
また、「金銭の送金」などを促すビジネスメール詐欺が疑われる場合は、必ず電話やチャットなど別の手段を用いて、当人に直接確認を行います。
3. 情報セキュリティ教育の実施
企業内で情報セキュリティ教育を徹底し、従業員がディープフェイクを悪用した犯罪の手口を理解することが不可欠です。
具体的な、なりすまし詐欺や偽情報拡散の事例を紹介し、それに対する適切な対応策の学習を促すことで、組織全体のセキュリティ意識を向上させることができます。
AI活用で高度化するメール攻撃
ディープフェイク技術を活用したなりすましやフィッシング攻撃について紹介しましたが、同様にAIを駆使したメール攻撃が巧妙化し、従来の防御策では対応が困難になりつつあります。
従来、日本語の自然な文章生成へのハードルから、日本企業は海外発のメール攻撃の標的になりにくい傾向がありました。しかし、近年の生成AIの進化により、従来の言語的特徴を用いたフィルタリングや脅威インテリジェンスに基づく検知が、ますます難しくなっています。
例えば、攻撃者が経営層になりすまし、自社の従業員に「送金指示」を出すビジネスメール詐欺(BEC)では、自然で説得力のあるメール文章の生成に、生成AIを活用するケースが多数報告されています。
企業・組織は、メール認証や異常検知システムなどツール導入により、怪しいメールを識別するセキュリティ対策の導入が重要です。
AI活用で高度化するメール攻撃の対策なら
NDR「Darktrace(ダークトレース)」
AIを活用した高度なメール攻撃への対策なら、エムオーテックスの提供する、NDR「Darktrace(ダークトレース)」にお任せください。Darktraceは、メールを活用したサイバー攻撃を最新鋭のAI技術で防ぐ、Darktrace/Email 機能を提供します。
Darktrace/Email とは?
Darktraceは、企業や組織のネットワークおよびクラウド環境のパケットを収集し、通信全体を可視化しながら、異常な挙動をリアルタイムで検知するNDRソリューションです。
自己学習型AIを搭載しており、ユーザーの通信パターンやメールの「文脈」を理解することで、従来のシグネチャベースでは検知が難しい、精度の高い攻撃メールにも対応可能です。
対応可能な脅威
Darktraceは、以下のような多様なメールセキュリティリスクを自律的に検知・対応します。
- ・ ビジネスメール詐欺(BEC)
- ・ フィッシング攻撃
- ・ ソーシャルエンジニアリング
- ・ 業務メールアカウントへの不正侵入
- ・ なりすましメール
- ・ データ窃取
- ・ スピアフィッシング
また、メール受信から約1秒以内に危険度を分析し、以下のアクションを自動的に実行。ユーザーが誤って攻撃メールを開封するリスクを、未然に防ぎます。
- ・ 不正URLの無効化
- ・ 危険な添付ファイルの削除
- ・ メールの隔離
Darktrace/Emailはクラウド環境にて利用でき、Microsoft 365(Business Basic以上のライセンス)、またはGoogle Workspace/G Suite(Enterpriseプラン以上)の環境にて利用可能です。
詳細はぜひ、以下ページをご覧ください。
まとめ
本記事では「ディープフェイク」をテーマに、その概要や対策について解説しました。
▼この記事を要約すると
- ディープフェイクとは、AIの一種であるディープラーニング技術を用いて既存の画像や音声を加工・合成し、実在しない新たな映像や音声を生成する技術
- ディープフェイクによる「不正認証」や「偽情報の拡散」「金銭目的の詐欺」といったサイバー犯罪が多発している
- ディープフェイクは、技術の進化とともに企業や個人に新たなリスクをもたらしている。被害を防ぐためには、技術的な対策だけでなく、組織全体でのセキュリティ意識の向上が不可欠
ディープフェイクは革新的な技術である一方、深刻なリスクも伴います。企業は技術的対策と人的対策を組み合わせた総合的な戦略を構築し、最新の脅威に適応し続ける必要があります。セキュリティ意識を高め、継続的な対策の強化を徹底しましょう。
おすすめ記事