1: 2016/04/01(金) 00:46:59.56 ID:CAP_USER.net
「Hitler was right I hate the jews.(ヒトラーは正しい。ユダヤ人は大嫌い)」

こんなトンデモ発言を繰り返し、ネット発信した人工知能(AI)が3月23日に公開されてから1日で緊急停止に追い込まれた。他にも「フェミニストは地獄で焼かれろ」などの差別表現も連発。

このAIは米マイクロソフトが開発した「Tay」。ユーザーはTayとツイッターなどのSNSで繋がる事で疑似会話を楽しめる仕組みだった。こうしたAIはチャットボットと言われるが、本来は「お帰りなさい」「ご飯とパンどちらがいいですか?」といった具合にゲーム感覚で遊ぶもの。AIはユーザーの言葉を学び、記憶していく。

ところが悪意あるユーザーが繰り返し非道徳的な表現やヘイト発言を書き込んだ事で、Tayはそれらの発言は人にとって重要な言葉だと“誤って学習”してしまったのだ。

「AIの学習能力は人間に似せて作っていますが、今は子供と同レベル。子供なら笑って済みますが、世界的企業の製品ならば倫理的な側面も問われるでしょう」(島根大学医学部の津本周作教授)

皮肉だが、この学習能力の高さがAI進歩最大の理由だ。人間の教えたプログラムに沿うだけでなく、ディープラーニング(深層学習)という能力で自らが学習する。2週間前には囲碁AIがイ・セドル九段を4勝1敗と圧倒。その驚きが冷めやらぬ内になぜこんなお粗末な事件が起きたのか?

山田誠二・国立情報学研究所教授は「AI最大の弱点が露呈した」と指摘する。

続きはソースで

images (4)
http://shukan.bunshun.jp/articles/-/6031

引用元: 【AI】「悪い人間に教育されると“悪いAI”になる」 元グーグル日本法人社長が警鐘

「悪い人間に教育されると“悪いAI”になる」 元グーグル日本法人社長が警鐘の続きを読む