社会の問題を解決するソリューションを見出すトーク配信番組「アートリーアカデミア」、この回のテーマは「責任あるAI」
企業が意思決定をする際、AIの情報を参考にする状況が今後加速していくなかで、AIの答えによって意図せず企業や個人に悪い影響を及ぼす可能性があるなかで、AIの責任に企業はどう向き合えっていけば良いのでしょうか?
当事務所の名古屋の税理士・原辰彦は番組の中で責任あるAIについて語っています。
大元はロボットの登場と同じようなものでは───
AIを作る会社が掲げる「責任あるAIの行動原則」はどれも大事ですよね。まあロボット3原則みたいなものとイコールだと思うのだけど、人に害をどれだけ与えないかをどこまで落とし込むかだと思うんですよね。
無限の答えをAIが出してくるなかで───
AIは知識であったり経験値のところを反映させるじゃないですか。それを基にしたAIが出す答えってたぶん、無限大に広がっていくはずなんですよ。なのでそこに、人に害を与えないという前提を加えないと、安全を保つことができませんから、特にそのあたりは大事じゃないかなと思いますね。
作り手がAIに対してどう倫理観を持っているのかの表明───
「責任あるAI」と言っても、作り手が保証書のようなものを出しているだけで、第三者が評価しているわけではないし、認証とかしているわけではないですものね。
AIは「学ばせる」わけですから、その作り手の企業倫理が基本になるんじゃないのかなって思いますね。会社が間違った価値観をもっていれば、それはAIに反映されますよね。
使う側も企業のポリシーと向き合う必要性があるのでは───
これからAI自体がもっともっと増えると思うんですよ。どの会社も。そうなった時に、今一度どの会社も、AIを利用する会社であれば、自社の企業倫理を見直す良い機会なんじゃないかなと思いますね。
AIに対して責任をもつことが企業の倫理に繋がるわけですから、作る側はもちろん使う側にも表明する必要が出てくるでしょうし、AIだけでなくあらゆる企業の行動などに対して、責任をもち、表明をすることが信頼を得るために、わざわざ設定するものではなく当たり前に、本質になっていくかもしれませんね。
👇全編ご覧になりたい方はこちら