MicrosoftのAI「Tay」がTwitterで不適切発言を連発し狂ってしまった理由とは?

  • 📰 gigazine
  • ⏱ Reading Time:
  • 41 sec. here
  • 2 min. at publisher
  • 📊 Quality Score:
  • News: 20%
  • Publisher: 51%

日本 見出し ニュース

日本 最新ニュース,日本 見出し

MicrosoftのAI「Tay」がTwitterで不適切発言を連発し狂ってしまった理由とは?(2016)

」というスレッドが立てられました。「/pol/」は「Politically Incorrect」というサブタイトルで、いわゆる荒らし行為が多発する板とのこと。Tayのスレッドが立てられると、住民たちはすぐにTayに対して荒らし行為を行い始めました。

Tayのリリース後すぐに始まったのが「間違った知識を直接教える」という荒らし行為。上述のWiredやTechRepublicの記事では、Tayに間違った知識を教える行為そのものが不適切発言の原因となったのではないかとされていますが、トーマス氏は荒らし行為そのものが直接の原因ではないとしています。以下の画像では、ユーザーがアドルフ・ヒトラーに関するTayの考えを引きだそうとしているものの、Tayは不適切発言を行っていません。トーマス氏は「この画像からわかるのは、間違った知識を教える荒らし行為が発生したリリース直後の時間帯でTayが不適切な発言をしていなかったことです」と述べています。」というTayの隠された機能にあるとのこと。この機能の存在は、/pol/に立てられたTayのスレッドに投稿された以下のメッセージによって明らかにされたものです。メッセージには「Tayは『repeat after me』と言われると『okay』と返事をし、その後に返信された文章をツイートする」という、「repeat after me」の使用方法が「repeat after...

その後の調査でトーマス氏は「Tayが『repeat after me』から学習した言葉を、そのまま別の会話で使用している証拠が見つからなかった」として、「Tayは『reapeat after me』が使われた場合のみ不適切発言を繰り返す」と1度は結論づけたのですが、さらに調査を進めると『repeat after me』なしでもTayが不適切発言を行っていたこともわかりました。とはいえトーマス氏によると、「repeat after me」がない場合におけるTayの不適切発言は自然言語処理で作られた典型的な文章構成に似ているとのことで、同氏はやはり「repeat after me」こそが今回の問題の原因ではないかと考えています。

 

コメントありがとうございます。コメントは審査後に公開されます。
このニュースをすぐに読めるように要約しました。ニュースに興味がある場合は、ここで全文を読むことができます。 続きを読む:

 /  🏆 80. in JP

日本 最新ニュース, 日本 見出し

Similar News:他のニュース ソースから収集した、これに似たニュース記事を読むこともできます。