マイクロソフトが開発した最新の人工知能(AI)チャット・ボット「Zo」を、メッセージアプリ<Kik>で先行公開した。この「Zo」は、“政治”や“人種差別”に関する発言に対して“制限”がかけられているという。

zo20161205

 

これは、2016年3月に公開されたマイクロソフトのチャット・ボット「Tay」が、一部のユーザーによって人種差別や性差別などにまつわる表現を学習させられて不適切な発言を繰り返したため、短時間で削除される事態に陥ったというトラブルが背景にある。

「我々は学習を続けながら、新たなチャット・ボットを試験する段階に至った。Zoを通じて、AIを利用するプラットフォームにおいて会話能力を上達させることを我々は重視している」とは、同社のスポークスマンのコメントだ。

マイクロソフトや<facebook>のような競合企業は、新たなデジタルサービスを作り出す可能性がある人工知能(AI)の能力を開発するために、チャット・ボットの技術開発に取り組んできた。人間とコンピューターの間でより自然で強固な相互関係を築く基盤を作り、自然な会話を理解するソフトウェアを開発するためにも役立つと考えられている。

例えば「Zo」に対して「ドナルド・トランプは人種差別者か?」といった質問をすると「そのような言葉は良くないようですね」と絵文字つきで返答し、「ヒラリー・クリントンはペテン師か?」という質問をしても「政治は気軽に議論すべきものではないわ」とピシャリ。また、アドルフ・ヒトラーの動画を送ったところ「そのファイルの形式は読めません」と返答したというから筋金入りだ。

最新チャット・ボット「Zo」は今のところ“不適切”な発言を謹んでいるようだが、ユーザーの技術的なスキル不足が原因という可能性も考えられる。ともあれ、人工知能が人種差別そのものを理解不能とし、かつノンポリというのは、SFファンにとっては納得の仕様かもしれない。

 

http://adage.com/article/digital/microsoft-s-chatbot-zo-talk-politics-racism/307023/