XAI(説明可能なAI)
7/23日経新聞「AIの判断根拠 解明へ開発激化 XAIで脱ブラックボックス化」「深層学習」を使うと高度な分析ができる一方で、AIの根拠が不透明になるため、人命などを左右する分野では使いづらい。そこで注目されるのが「XAI(説明可能なAI)」。NECや富士通だけではなく、世界のIT企業が技術化開発を加速する。判断根拠を示せないAIは今後、企業だけでなく政府機関の導入に制約が掛かる可能性がある。AIの失敗例2015年(グーグル):画像認識で黒人を「ゴリラ」と判断→人種差別になりかねない事態へ2016年(マイクロソフト):会話型AIが悪意のネットユーザーに不適切な言葉を教え込まれ差別発言を連発