昨今急激と呼べるほどの成長を遂げているAI。今年からは次世代通信規格である「5G」の登場もあり、より一層の成長が見込まれているその裏で、AIを使用した犯罪に対しての警鐘が鳴らされている。
悪意ある人工知能の利用
2018年2月イギリスのオックスフォードにて14機関に所属する専門家26名によるワークショップが開かれた。その内容を基にした報告書「The Malicious Use of Artificial Intelligence」(訳:人工知能の悪意のある使用)では、犯罪者、テロリストなどがAIを悪用することは既に可能であると論じられている。
全101ページにもなる報告書では、ソフトウェアの不具合(脆弱性)を発見するためのテスト手法であるAIファジングを悪用してセキュリティの脆弱性を見つけられる危険性や、機械学習を使用してサイバー攻撃のターゲットに優先順位を付けさせるなど、今後AIを使用して起こりうる犯罪の危険性について述べているだけでなく、研究者や技術者たちに対して悪用される可能性についても留意して事前に対策を講じることの必要性や、新たな犯罪に備え各国政府が法律を整備していく必要性があることも述べられている。
報告書はすべて英語であるが、サイトから読むことができるため、興味がある人は是非一読していただきたい。
人工知能の悪意のある使用
しかし、こうした報告書などでAI犯罪について警鐘が鳴らされ続けていたが、2019年3月に世界で初めてと思われるAIを使用した詐欺が発生し、約2600万円もの大金がだまし取られる事件が発生している。
AIが作った「合成音声」による詐欺事件
被害にあったのはイギリスのエネルギー企業。詐欺被害を発表したのは被害企業を担当していたフランスの保険会社ユーラーヘルメス・グループ。公表された情報によると、2019年3月、被害会社のCEOにドイツにある親会社のCEOからハンガリーにある仕入れ先の口座に22万ユーロ(2600万円)を至急振り込むよう指示があったそうだ。
これだけなら、日本でいうオレオレ詐欺のようなものであり、引っかかった被害会社のCEOの自業自得に思えなくもない。しかし、被害者側のCEOからの話によると、声質はもちろんのこと、調子や間合い、ドイツ訛りまでそっくりであったと話している。さらには、被害者のCEOを名前で呼び、振込先の口座情報など支払いの詳細をメールで送付してきたそうだ。
親会社のCEOから至急お金を振り込むよう指示され、口座情報までメールで送られてくる。声も間合いの取り方も、更にはドイツ訛りまでも一致しているとなると、一回は引っかかってしまってもしょうがないと思えなくもない。
実際被害会社のCEOも2度目の振り込みを指示された際に違和感を覚え、本物の親会社のCEOに電話をかけ、そのタイミングで偽物のCEOから電話がかかってきたことによって詐欺であったことを知ったそうだ。
合成音声とは
合成音声とは、人間の音声を人工的に作り出すことであり、その歴史は古く、1779年には、クリスティアン・クラッツェンシュタインにより母音を発声できる機械が製作されている。
2013年にはGoogleのチームによりAIの深層学習(ディープラーニング)に基づいた音声合成が発表されている。
元々は、視覚障害者あるいは読字障害者などのためにスクリーンリーダーとして使用されたり、病気やその治療などのために発声または音声発話が困難な人が、自分の声の代わりに使用するために作られたものであるが、「The Malicious Use of Artificial Intelligence」で注意喚起されていた通り、残念ながら悪意のある使われ方をされたというわけだ。
今後起こりうるAI技術を駆使した詐欺
今のところ、AI技術を駆使した詐欺で報告が発生しているのは上記のものぐらいだが、これ以外にも悪用される可能性のある技術はいくつもある。
AIファジング
ファジングとは、ソフトウェア製品等のバグや脆弱性を検出するセキュリティテスト手法の一種である。不規則なデータをテスト対象に大量に送り込みテスト対象の挙動を確認するというものだ。AIファジングとはこのファジングにAIを使うことで、専門的な技術がなくてもファジングが簡単に行えるようになると言われている。
ソフトウェア製品等のバグや脆弱性を専門的な技術がなくても簡単に見つけ出せるようになるということは、当然反対に、悪意のあるハッカーなどが使用すればソフトウェアやネットワークの脆弱性を調べる事が可能になるわけである。
このAIファジングについては、セキュリティソフトで有名なシマンテックもその危険性を発表している。
ディープフェイク
ディープフェイクとは深層学習(Deep learning)と偽物(fake)を組み合わせた造語であり、人工知能など高度な合成技術を用いて作られる、本物と見分けがつかないような、動画や画像のことである。
この技術を使えば、例えば、既に亡くなっている俳優をスクリーン上に蘇らせたりすることができるが、残念なことにこの技術は、悪意のある使い方をされやすいものとなっている。
上記の動画はオバマ前大統領のディープフェイク動画である。本当に本物がしゃべっているように見えるがこれこそがディープフェイクの怖い部分である。この他にも、既に政治家や著名人に虚偽の発言をさせるフェイクニュースや、他人の顔を合成したポルノ動画などに使用されており問題視されている。
おわりに
今回紹介したAI技術はどれも私たちの生活をよくするために作られたものだ。
しかし、悪用されると今度は私たちの生活を脅かす脅威になる可能性を秘めていることを、肝に銘じておく必要があるだろう。