生成系AIの悪用リスクについて
イラストや文章の生成などへの利用が浸透した生成系AIですが、不適切な利用による情報漏えいリスク(これについてはインフォぷりんvol.138号(2023年4月発行)で記載しています)や、AIの悪用によるサイバー攻撃や偽情報の流布の拡大が懸念されています。
そこで今回は、生成系AIが悪用されることのリスクと注意点についてまとめてみました。
●フェイク画像・動画(ディープフェイク)の高精度化
画像や動画は、事実確認(証拠)としての信用性が高いはずでしたが、生成系AIをはじめとした技術の進歩により、誰でも簡単に本物か偽物か識別するのが難しいくらい精緻な合成画像や加工動画を作ることが可能になりました。特にSNS上では、それらのフェイク画像・動画が出回りやすく、それを信じてしまった人によって、さらに広範囲、かつ急速に拡散されてしまう可能性があります。
フェイク画像・動画が作成され、ネット上に公開されてしまう理由としては、アクセス数(表示回数)による広告収入など金銭目的の場合や、単に冗談のつもり(注目されたい)だけでなく、何らかの政治的または宗教的思想や、特定の人物の印象操作のために作成・拡散されることもあるため注意が必要です。
実際に、選挙時や災害発生時、大きな事件や戦争が起きた時などに、フェイク画像・動画が拡散されており、国政や生命に関わる重大なミスリードとなり得ると懸念されています。
現時点ではまだ一般的とはいえませんが、画像に認証情報を埋め込み、専用サイトで加工されたものか否かを確認できる仕組み(コンテンツ認証※)も整備されつつあり、フェイク画像の識別への効果が期待されています。
※画像編集ソフトPhotoshopを提供するAdobeやカメラメーカー報道機関等が加盟する「コンテンツ認証イニシアチブ」により、画像の来歴情報(作成者・使用機器やアプリ・加工の有無など)を画像データに埋め込むことで著作権の所在や第三者による加工の有無などを確認できるようにする取り組みが進められています。
●フェイク記事の高精度化
テキスト生成系AIは、「それっぽい」文章を作成することが得意ですが、それを悪用すれば、意図的に間違った情報を「事実であるかのように」表現した文章を作ることも可能であり、本物であるかのような偽の記事(文書)が今まで以上に拡散されることも懸念されます。
例えば、「特定の著名人の文体に似せて、あたかも本人が書いているかのように思わせる記事」、「報道機関の正規のWEBサイトに見せかけた偽サイト上に、あたかも事実の報道であるかのように偽情報が公開される」、「過去の災害時の記事を、今起こっている災害についてのものであるかのように改変した情報が公開される」などは、既にネット上で確認されています。
また、生成系AIは必ずしも正しいことを答える(出力する)とは限らず、真実ではないことや、偏った情報に基づいた情報(結果)を生成してしまうこともあります。
そのため、意図的な(悪意のある)誤情報だけでなく、AIからの出力をそのまま信じて利用してしまい、意図せずに誤情報を公開してしまう可能性あります。
生成系AI提供者により、特定の単語(指示)を禁止したり、免責事項としてAIを使って作成したことを明記するよう利用者に義務付けたり、といった対策は実施されていますが、情報を受け取る側(閲覧者)も、偽情報があることを認識し、気を付けておく必要があります。
●フェイク画像・動画・偽情報に騙されないための注意事項
フェイク画像・動画・記事などの「偽情報」に騙されないため、また、偽情報拡散に意図せずに協力してしまわないためには、次のようなことに注意しましょう。
落ち着いて、よく画像や映像を確認する |
類似の投稿の有無、投稿者の信用性情報の発信元)、報道機関の発信する情報等も必ず確認する(報道機関などの公式サイトや公式アカウントなどの発信する情報を必ず確認する) |
投稿や画像などを安易に拡散しない(緊急を要するような情報であっても、事実であることが不明な場合は拡散に協力しない) |
普段フォローしている(チェックしている)投稿者だけでなく、その他の投稿者やトレンドなどを調べる、複数のSNSやニュースサイトで確認する(SNSは情報が偏りやすいため) |
特にインパクトのある情報は、まずは疑う |
特に、災害発生時や話題性ある大きな事件が起きた時には、緊急性や人助けのために情報を共有・拡散しなくては!と思いがちですが、偽情報を共有・拡散してしまうことで、本当に助けが必要な人の救助が遅れてしまう可能性もあるので、慎重に判断することが大切です。
●フィッシングメールの作成も容易になる
テキスト生成系AIを悪用すれば、これまで以上に精巧な「フィッシングメール(実在企業などになりすまして偽サイトに誘導し、アカウント情報やクレジットカード情報を盗むための攻撃メール)」の作成も容易になります。
特に、異なる言語であっても、高精度に翻訳され、費やす労力や時間も少ないため、以前のような「不自然な日本語」などではなく、本物と見分けがつかないような文章でフィッシングメールが大量に作成される危険性があります(生成系AIの登場以降、フィッシングメールが増加したとの調査報告もあるようです)。
●マルウエアの作成にもAIは悪用可能
生成系AIはプログラムのソースコードを生成することも可能であり、悪用することでマルウエア(コンピュータウイルス)を生成することも不可能ではありません。
正規の生成系AIサービスでは、危険な可能性のあるプロンプトを禁止するなど、安全面に配慮した機能を実装していますが、その安全機能を無効化してマルウエアを作成可能にしたAIがダークウエブで流通していると言われています。
また、安全機能を無効化しなくても、プロンプトの工夫によっては、マルウエアなどの作成コードをAIが出力してしまう可能性もあり、専門的な知識がなくても、マルウエアなどの不正なプログラムを作成しやすくなっていることには注意が必要です。
●便利なものにはリスクもあることを認識し、安全に使うことが大切
生成系AIは業務手順を劇的に変えるツールにもなり得ますが、一方で、ここに記載したようなリスクもあります。ICTリテラシーを高め、適切に情報を利用できるようにしましょう。