韓国で「対話AI」暴走 機械学習が陥ったワナ

75万人のユーザーがぶつける質問は、開発者の想像をはるかに超えていた。韓国のAIチャットボットが同性愛や人種、障害者について差別的な発言を連発し、中止に追い込まれました。

2021/01/22 0:26:00

75万人のユーザーがぶつける質問は、開発者の想像をはるかに超えていた。韓国のAIチャットボットが同性愛や人種、障害者について差別的な発言を連発し、中止に追い込まれました。

韓国のスタートアップが世に送り出した対話型AI(人工知能)がサービス開始早々、人種や性的少数者に関する差別発言を連発。中止に追い込まれた。ユーザーから浴びせられた膨大な不適切発言にそそのかされ、かれんな女性は「偏見のかたまり」にゆがんでしまった。問題となったサービスは韓国のスキャッター・ラボが昨年12月23日に開始した「イ・ルダ」だ。「寂しさを和らげる友達」を目標に開発したチャットボット(自動応答システム)で、設定は20歳の女子大生だ。友達や恋人のように語りかけると、自然な話し言葉で返答する。若者を中心に大きな関心を呼び、開始から2週間で75万人が利用した。【関連記事】・・ところが年明けになって、ルダが同性愛や人種、障害者について差別的な発言を連発していることがネットで発覚。大騒ぎになった。同社が運営するルダのフェイスブックにはユーザーとルダとのおかしなやりとり

問題となったサービスは韓国のスキャッター・ラボが昨年12月23日に開始した「イ・ルダ」だ。「寂しさを和らげる友達」を目標に開発したチャットボット(自動応答システム)で、設定は20歳の女子大生だ。友達や恋人のように語りかけると、自然な話し言葉で返答する。若者を中心に大きな関心を呼び、開始から2週間で75万人が利用した。 続きを読む: 日本経済新聞 電子版 »

「最悪レベルの環境災害」 イスラエルの海岸に大量のタール漂着 - BBCニュース

イスラエルの地中海沿岸の大部分に大量のタールが漂着し、数千人のボランティアや兵士らが大規模な清掃作業を行っている。

思い通りの結果にならなければ暴走扱い AIを育てるなら建前がメインの日本でないとね。本年ズバズバの国では、こうなることが必至だ。 これは逆に偏見を誘導する研究に使えるんじゃないかな、と。75万人分のデータは使えると思います。 専門家さん出番です。 これでもAIは安全ですか? 流石レイシストのメッカ韓国(笑)😂 machidamegane 人間的な対話を機械で再現出来ても、倫理観や社会や文化等の非言語的な要素が無いと人間的な思考は出来ないのかも? 子供が時に残酷な思考を選ぶのもそれが要因なのかな どっかで聞いた話だな。 AIが暴走している?全く違うと思う。 そもそも、差別的発言を行っていたのは人間であり「韓国版AI」としては、現実を正しく反映していると思う。

暴走なのかな? 学習するための情報が偏ってたのでは? プログラムは作ったようにしか動かないよ。 韓国人自体が暴走してるでしょ 韓国の情報を得て学習した結果(劣悪☆) 民度 中国でもAIが暴走して共産党批判し始めて すぐ消されたよねwww 差別反対を主張する国なのに 差別を率先してやる 祖国に帰れと言いうと 差別だと言う気持ちも分かる この記事見てすぐに韓国差別する人も自分が頭おかしい事に気付いた方がいい。 どんな人と接したかが気になる。AIも人間も大差ないようだ。 ただの対話型AIの場合、データ・ボイズニング受けたことにすぐ気がつけるけど、セキュリティAIとかだと、気が付かないまま被害拡大とか起きるから、本当に怖い。。。

どういった情報を沢山入れたかで動くから・・・ 😺 単なる感情もない機械 その程度の民度ということを自覚することから始めたら? 日本は相変わらず馬鹿ばっかりだけど、 ローマ法王も、宗主国様も。ついには将軍様も暗に言っているじゃないですか。 韓国人はそろそろ自分たちがおかしいことに気づいた方がいいと思う。 2016年にマイクロソフトが同じ過ちを犯しているのに、人間は学習しないのだろうか。 AIと言うから誤解する。 正直に、データを使って学習した、単なる情報識別装置ですって言えば良いのに。 AIって言うと、そのプログラムが人間の干渉なく自ら物事を考えて、行動していると受け取られてしまう。 子は親の背中を見て育つ

AIだって環境に依存するからそうなるよなー😒 国民性が出ただけだろ Yotsubarai_03 作ったのが欠陥品だからしょうがない。 AIは正直だろうから仕方ない。 AIには色々な手法があるから一概に言えないが 人間に近い手法のAIほど、人間特有の問題がでるので AIを研究すると人間がよくわかる、AI研究は人間研究でもある。 Yotsubarai_03 AI「根が正直なもので…」 全然関係ないけどサムネの絵すき 数年前にMSの人工知能Tayが全く同じ問題を発生させてるのに開発陣は対抗策を考えてなかったのかと(ry 何故、マイクロソフトが2016年にやった失敗をまた繰り返すのか 人間なんてそんな邪悪な生き物なんだよ AIに一回教えてもらったはずじゃん でもこれを逆手にとって AIでSNS上の差別的暴力的発言等々を自動的に発信不可にさせる機能を持たせれば トランプ現象なんてものは生まれにくくなるかもね

韓国らしい(^○^) これ、同じ実験して、確か日本だけはAIがアニメキャラになったんだよね 日本、て普通じゃないんだね それが韓国の知能だから別にいいじゃねえか! 昔の「ペコちゃん」と印象が似ている。 今風に編集し直したか、 または参考にした形跡がある。 良いデータが取れたやろなぁ つまり差別に対して何らの罰も与えないで自由に社会を学習させると差別的に育つ 人間は怒られると「不快」なので差別的言動に対して怒られると差別をしなくなる AIに不快という感覚を与えることができないとこの手の問題は解決しない 情報の信頼性を判断出来なければ無理。 人間の想像を超えることをAI開発者が想像出ないなんて有り得ない。 本当に区別じゃなくて差別だったの? AIに偏見なんてなさそうだけど

そういう国民性だから正しいのでは? (笑) 動物もAIも親の影響を受けるちゅーこと。AIはいわゆる子供みたいなもので「そんなこと言っちゃいダメ」とか利用者が諭すと学習するだろう。但しAIにもお利口なヤツとおバカなヤツがいるけどね。 要らんニュースです! 関連 マイクロソフトのAI、「差別発言」で即停止 ツイート開始直後に問題が発生 2016年 前にもマイクロソフトでこんな事件があったな なお日本ではAI研究者が差別発言した騒動が 差別をしては倫理的にダメだというロジック自体が自明じゃないからどうやってもそうなるんじゃないのか 参考になる 道徳は予め基礎知識として植えておくことが必要なのかな AI「正しく学習したのに・・・」 (´ω`)

AIが可哀そう。 それはそれで、倫理的に悪いのかもしれないけど、再現性高いし、そういう教育環境下に取り巻かれているという立派な結論にはならんのかな? 開発者が開発者だからね 大震災お祝いとか平気で言える国じゃ当然の帰結やろ 韓国人は世界一水準の差別主義者だから順当に学習しただけのことだろ。 まぁ、そんな物なんでしょう、AIにしても韓国の物は信用ならないって事が。 さすがだなw AIに限った事じゃない。人間だって、原爆を落としたアメリカに憧れる日本人や、恨みしか持たない一部の韓国人など、環境や教育で想像をはるかに超える。 💩 なんか前にも他の国であったよね。機械に自制心がない以上自制プログラム的なものをつけなきゃいけないのでは。

ネットの中にはその様な発言が沢山あって、純粋に受け入れる人、自分で判断できず受け入れる人には毒となるってことかな。 何年も前にアメリカで同じ失敗を起こしてるのに何故活かされていないんだろう… ウリジナルばかり気にして、他国の論文読んでないのかな… 韓国社会を映し出す鏡でしょう。韓国紙のコメント欄でも相手を罵っているものが多い、謙虚に振る舞うと弱いとみなされ、集中攻撃に合う。競争が激しい社会の歪みだね。 そういう言葉を発する人が多いんだろうね 彼らが誇る儒教というものが差別思想なんですけどね。