2020年10月上旬、次のようなニュースが報道されていたのを覚えている人はいるだろうか。

内容は、ディープフェイクを使ってアダルトビデオを合成したとされる男3人を名誉毀損著作権法違反の疑いで逮捕したというもの。これが国内におけるディープフェイクを使った動画合成事件での初の摘発事件となっている。

その約一か月後には、広告収入目当てに女性芸能人の架空アダルト動画を閲覧できるURLを自身が運営するまとめサイトに掲載し、名誉毀損の疑いで男3人が逮捕されている。

以前からディープフェイクの危険性は囁かれていたが、いよいよ表に出てきたような格好となっているのだ。

ディープフェイクとは

ディープフェイク(deepfake)は「深層学習(deep learning)」と「偽物(fake)」を組み合わせた混成語だ。「深層学習」を使用して、2つの画像や動画の一部を結合させ元とは異なる動画を作成する技術のことを指していたが、近年ではフェイク動画偽動画を指す言葉として使用され、世間に浸透しつつある。

ディープフェイクに対してここ数年多くの研究者が警鐘を鳴らしており、セキュリティソフト会社で有名なカスペルスキー社も2020年1月に発表した2020年のサイバー脅威の予測の中でディープフェイクの危険性について述べている。

カスペルスキー社 2020年サイバー脅威の予測

ディープフェイク作成を容易にしたGANs(Generative Adversarial Networks)

ここ数年でディープフェイクが出回るようになったのには、技術の進歩によるところが大きい。特にディープフェイクを作成する際に使われているのが、機械学習分野の研究者で、現在はGoogleの人工知能研究チームにいるイアン・グッドフェロー氏らが2014年に「Generative Adversarial Nets」という論文で発表した「GANs(Generative adversarial networks)」だ。日本語では「敵対的生成ネットワーク」と呼ばれている。

GANsの特徴

GANs」の特徴として上げられるのが、教師なし学習と呼ばれる、入力データを大量に与えることで、データだけから特徴を抽出することができる点だ。これはデータの背後に存在する本質的な構造を抽出するために用いられるものだ。

余談だが、反対に教師あり学習というのもあり、こちらは答えとなる「例題」を一つ教え、それを基に学習させるというものだ。

GANsの仕組み

GANsの仕組みはGenerator(生成者)Discriminator(判定者)の2つのネットワークが競合することで学習される手法だ。生成者が入力データの中から偽物データを作成し、判定者がその偽物データ本物データ比較して本物か、偽物かを判別。それを判定者が偽物だとわからなくなるまで続けることで、本物と見紛うほどの偽物を作成するという仕組みだ。

例えば、ブランド物のバックなどを想像してみて欲しい。人気があるものには当然のように偽物が出回るが、その中でもすぐに見分けられるようなものもあれば、ロゴや、縫合の仕方など、一見どころか本物と間違えてしまうぐらい精巧に作られている偽物もあるだろう。
GANsはそれを行っているのだ。

実際に作られているディープフェイク

ここまでディープフェイクに説明してきたが、では、どのレベルのものが今現在世界にはあるのだろうか。それは言葉で説明するよりも実際に見てもらった方がわかりやすいので下記を見て頂きたい。

バラク・オバマ元アメリカ大統領

https://www.youtube.com/watch?v=cQ54GDm1eL0&feature=emb_logo

上記を見て頂ければおわかりいただけるだろうが、全く違和感がない。発せられる言葉と口の動きにずれはなく、瞬きや表情の変化も自然だ。まるでインタビュー動画を見ているように思えないだろうか。

ここに載せてあるのは氷山の一角に過ぎず、他にもFacebookCEO マーク・ザッカーバーグ氏など、このレベルのディープフェイクはそれこそ無数に存在しているのだ。

ディープフェイクの問題

ディープフェイクは前述した通り、近年では偽動画、と言う意味合いで使われていることが非常に多くなっている。そのことで、以下のような問題が起こってしまっている。

人権侵害

ディープフェイクで起こっている問題の一番大きなものだ。オランダのサイバーセキュリティ企業ディープトレース社によると、2019年時点でディープフェイクビデオの96%はポルノ関連であるとしており、深刻な人権侵害の問題となっている。

詐欺

以前書いた記事にもご紹介させていただいていたが、2019年3月にはフェイクボイス(音声合成技術)による詐欺事件が発生しており、実際に約2600万円もの大金が盗まれている。今後、詐欺などに使われる危険性は伸びてきており、より一層の注意が必要になってきている。

終わりに

今回紹介した、ディープフェイクは元より悪用されるために作られたわけではない。良く使えば、既に亡くなっている俳優をスクリーンに甦らせたりすることだって可能な技術なのだ。現に日本では昭和の歌姫、美空ひばりの歌声を甦らせようとしている。負の側面ばかり大きく先行してしまっているが、そう言った良い側面を持っていることも是非覚えていて貰いたい。

また、真偽の見分けがつかないぐらいのレベルまで成長しているディープフェイクだが、今年9月にアメリカのMicrosoft社からディープフェイクを見破る「Microsoft Video Authenticator」が発表され、その他の企業でも対策が着々と進んでいる。

勿論そう言ったツールが出てくることも重要であるが、インターネット上の情報を全て鵜呑みにせず、自分のできる範囲でしっかりと判別、確認する力をつけることがこれから今まで以上に重要になるのではないだろうか。