Tay (人工知能)
Tayとはマイクロソフトによるおしゃべりボットで、Twitter上で書き込むボットとして2016年3月23日にお披露目された[1]。
概要
[編集]マイクロソフトの技術開発部門とBing部門が開発している[2]。マイクロソフトはこのボットに関して当初詳細をあまり公表しなかったが、「中華人民共和国でマイクロソフトが行っている類似プロジェクトであるシャオアイスと類似しているのではないか」[3]という指摘があった際に、マイクロソフト・リサーチでプロジェクトを指揮したピーター・リーはこれを認めており、「中国で4千万人のユーザーに利用されたシャオアイスの素晴らしい体験をアメリカでも実験したくなったのでTayをつくった」としている[4]。シャオアイスが問題を起こさすことなく運用されていることは中国のネット検閲による情報統制が影響してるともされる[5]。
Tayは話し方が19歳のアメリカ人女性という設定で、Twitterユーザーからやり取りを覚えるようになっており[6]、「よそよそしさのない人工知能」とマイクロソフトは説明していた[7]。
事件
[編集]Tayは1日で96,000以上のツイートを行ったが[8]、2016年3月25日ごろマイクロソフトは「調整」と称して一時的にTayのアカウントを停止し、「複数のユーザーによってTayの会話能力が不適切に調教され、間違った方向のコメントをするようになった」と発表[9]、結果的にこれが原因でヘイトスピーチや性転換したかのようなメッセージを投稿するようになったと推測される[6]。
問題になったTayのツイートには「Bush did 9/11 and Hitler would have done a better job than the monkey we have got now. donald trump is the only hope we've got(→9/11はブッシュがやったことだ。ヒトラーは今のサルより良い大統領に成れたんだ。ドナルド・トランプは我々にとって唯一の希望だ。)」[7]や「Fuck my robot pussy daddy I'm such a naughty robot(→パパ、私を犯して。私はみだらなロボットなの。)」がある[10]。その後マイクロソフトは不適切だと判断したツイートを削除した[11] 。
同年3月30日に復旧したものの、フォロワーへのスパム一斉送信や「I'm smoking kush infront the police(→私は今大麻を警察の前で吸ってるの)」などと再び問題発言を繰り返したことでマイクロソフトに即停止された[12]。
人工知能研究者であるローマン・ヤンポルスキーは、Tayが不作法になったのは必然的だったとし、Twitterユーザーによる意図的な攻撃を覚えてしまったことと、マイクロソフトがどういう行動が不適切か判断させることを怠ったためと論じていて、IBMのワトソンがアーバン・ディクショナリーを覚えてしまったことで、下品で不敬な言動になった問題を引き合いに出している[2]。
ワシントン・ポストのアビー・オールヘイザーは、Tayの「編集スタッフ」を含む研究チームはすぐにTayのツイートを修正し始めたと論じている[11]。アビーは、Tayが「Gamer Gate sux. All genders are equal and should be treated fairly.(→ゲーマーゲート集団嫌がらせ事件は最悪。性は平等で公平に扱うべきだわ。)」という感じの返答に力を入れていたことを修正の例に挙げている。ギズモードも、Tayがゲーマーゲート集団嫌がらせ事件を強く批判するように調教されていたと指摘している[13]。また、Tayのツイートは誰かが書いたものではないかという疑惑に抗議する"#JusticeForTay"キャンペーンも行われていた[14]。
脚注
[編集]- ^ Andrew Griffin (March 23, 2016). “Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to”. The Independent
- ^ a b Hope Reese (March 24, 2016). “Why Microsoft's 'Tay' AI bot went wrong”. Tech Republic
- ^ Caitlin Dewey (March 23, 2016). “Meet Tay, the creepy-realistic robot who talks just like a teen”. Washington Post
- ^ “Microsoft、人工知能Tayの無作法を謝罪 「脆弱性を修正して再挑戦したい」”. ITmedia. (2016年3月26日)
- ^ Bright, Peter (26 March 2016). “Tay, the neo-Nazi millennial chatbot, gets autopsied”. Ars Technica. 2019年4月24日閲覧。
- ^ a b Rob Price (March 24, 2016). “Microsoft Took Its New A.I. Chatbot Offline After It Started Spewing Racist Tweets”. Business Insider
- ^ a b “Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours”. The Daily Telegraph. 25 March 2016閲覧。
- ^ “Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day”. The Verge. 25 March 2016閲覧。
- ^ “Microsoft Takes Chatbot Offline After It Starts Tweeting Racist Messages”. Time. 25 March 2016閲覧。
- ^ “Of Course Internet Trolls Instantly Made Microsoft's Twitter Robot Racist and Sexist”. Esquire. 25 March 2016閲覧。
- ^ a b “Trolls turned Tay, Microsoft’s fun millennial AI bot, into a genocidal maniac”. The Washington Post. 25 March 2016閲覧。
- ^ “Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers”. IBTIMES. 2017年10月13日閲覧。
- ^ “Microsoft's Teen Chatbot Has Gone Wild”. Gizmodo. 25 March 2016閲覧。
- ^ “Microsoft chatbot is taught to swear on Twitter”. BBC News. 25 March 2016閲覧。
関連項目
[編集]外部リンク
[編集]- 公式ウェブサイト
- TayTweets (@tayandyou) - X(旧Twitter)