2016年3月25日金曜日

<h1 itemprop="headline">更新:マイクロソフトの機械学習AI「Tay」、ネットで差別と陰謀論に染まって一日で公開停止(MSのコメント追記)

マイクロソフトが、公開したばかりの学習型人工知能会話ボット「Tay」を緊急停止させました。理由はTwitterでの会話を通じて人種差別や性差別、陰謀論を学習してしまい、極めて不適切な発言を連発するようになったため。

発言は直接引用するのも憚られますが、たとえば特定の人物について問われれば放送禁止レベルの差別語で罵倒したり、ヒトラーを礼賛してホロコーストはでっち上げと主張するといった発言が残っています。

(更新: 手違いにより一時的に消えた状態になっていた記事後半部分を復活させました。マイクロソフトによるコメントや技術的背景などを含みます。ご迷惑をお詫びいたします。)
「Tay」は会話を通じた理解の研究を目的として開発された人工知能チャットボット。Kik や GroupMe、TwitterといったメッセージングサービスやSNSでフレンドとして追加でき、ユーザーと会話すればするほど賢くなるはずでした。

ターゲットは、米国でチャットアプリを多用する年齢層である18歳から24歳。なんでもない会話や質問に冗談を交えて答えたり、ちょっとしたゲームをしたり、送られた写真にコメントを書き加えて返すことが基本機能です。Tay自身は設定上は女性。若者らしく俗語や省略綴り、絵文字も多用します。

またユーザー個人について性別や好み、居住地や恋人の有無などを学ぶことで、相手を理解したチャット相手になることも特徴です。このあたりはWindows 10標準のパーソナルアシスタントであるコルタナさんとも通じます。

0 comments:

コメントを投稿