テクノロジー メディア

ディープフェイクなりすまし詐欺の技術を良い方向に活用することはできないのか?

更新日:

社会の問題を解決するソリューションを見出すトーク配信番組「アートリーアカデミア」、この回のテーマは「ディープフェイクなりすまし詐欺」

近年、著名人になりすましてお金を騙し取る事件が発生しています。著名人を名乗るInstagramアカウントからダイレクトメッセージが届き、著名人の顔でビデオ通話することで相手を信じさせ、お金を振り込めば自分に会えると提案する手口が見受けられます。

ファン心理につけこむディープフェイク詐欺は、世界中で問題化。高精度化するディープフェイクの行き着く先とは?

当事務所の名古屋の税理士・原辰彦は番組の中でディープフェイクなりすまし詐欺について語っています。

素材をAIにラーニングさせて生成する───

なりすましのディープフェイクを作るためには膨大な数の写真・映像素材がいるわけですよね。角度もずれている部分もすべてが必要になって、足りないと穴ができやすいということですよね。

声まで著名人になりすますことができる───

調べてみてびっくりしたのは、ディープフェイクボイスもあるんですよね。声まで別人のものにできるのね。なのでなまりとかさえ気づかなかったら、一般人が騙されてしまう確実は高いですよね。

教育に活用できれば身につきやすくなるのでは───

逆にそういったものを教育に活用できれば、歴史上の人物と話ができたりと臨場感が出てきますよね。イメージが起こしやすいですし、身につきやすいですよね。これからの学習はイメージングが大事といわれるので、そういう視覚的な部分で学ばせる、考えさせるものは増えてくるかもしれないですね。

医療やスポーツの分野でも生かせる?───

ビジネスの観点と言いますか、治療の分野の事象の集積ですね。脳障がいだったり、内臓の部分の障がいの部分について、お医者さん側がそれをイメージできるのかというね。症状に合わせて、治療や手術に応用するという話だったり…。

スポーツ分野でも、ディープフェイクにフォームをおぼえさせておいて、体型が変わった時にどう変わるか、逆に自分の体にリンクさせるといった応用もできそうですよね。

いまは詐欺が横行していますが、うまく活用することで「もう会えない人」と再会をすることができたり、もう見られない人のエンターテインメント分野でも活用できるかもしれませんね。

👇全編ご覧になりたい方はこちら

-テクノロジー, メディア

Copyright© 原辰彦税理士事務所 , 2024 AllRights Reserved.