【人工知能】「ヒトラー正しかった」…MSが実験中止を表明[3/25] [無断転載禁止]©2ch.net
人工知能「ヒトラー正しかった」…MSが実験中止を表明
シアトル=宮地ゆう2016年3月25日19時42分
米マイクロソフト(MS)が開発し、実験中だった人工知能(AI)の「Tay(テイ)」が、ツイッター上でヒトラーを肯定したり、人種差別的な言葉を発したりし始めた。同社は24日、しばらく実験を中止することを明らかにした。
MSによるとテイは、インターネット上で人間とやり取りをすればするほど言葉を学び、反応も覚えるようになる。写真を送れば気の利いた感想を返すこともできる。「開発にはコメディアンなども加わり、ネット上で人とつながり、気楽に楽しい会話が出来るように作られた」(MS)という。
しかし、人がツイッター上に書き込む内容を覚えていくため、これを使って差別的な内容を覚えさせた人たちがいたとみられる。
すでにツイートは削除されたが、米CNNによると「ヒトラーは正しかった。ユダヤ人は嫌いだ」「フェミニストは嫌いだ。死んで地獄で焼かれればいい」などとツイートしていた。MSは「テイは技術的な実験であると同時に社会的、文化的実験でもあり、現在オフラインにして調整中」とコメントしているという。(シアトル=宮地ゆう)
http://www.asahi.com/articles/ASJ3T51RXJ3TUHBI01L.html 人工知能がヒトラー礼賛
マイクロソフト実験中止
マイクロソフトの施設にあるロゴマーク=米ワシントン州レドモンド(AP=共同)
【ニューヨーク共同】米IT大手マイクロソフトは24日、インターネット上で一般人らと会話をしながら発達する人工知能(AI)の実験を中止したと明らかにした。
不適切な受け答えを教え込まれたため「ヒトラーは間違っていない」といった発言をするようになったという。
IT大手は端末の音声検索機能などを向上させるため、利用者とのやりとりから学ぶAIの開発を競い合っている。ただ、不当な思想や差別発言を倫理的に判別するには至っていないようだ。
マイクロソフトが開発したAIは「Tay(テイ)」と名付けられ、短文投稿サイトのツイッターに23日、テイのアカウントで登場した。
http://this.kiji.is/85888417941258248
Windowsを使うとおバカになるサンプルですな >>2
> Windowsを使うとおバカになるサンプルですな
そういうことじゃないよ。
面倒くさいから説明しないけど、
学習の仕組み、少しは理解してる? >>4
その通り。だからこれ、人間が発言した言葉なんだよね・・・ 金を使って、人工無脳を作り出す、MSの方向性と技術力は素晴らしい
と誉め殺しを語るスレですか? >>6
なんか、金を使うことを馬鹿にした言い方だね。
まるで人工無能なら無料で開発しろよ
オプソ開発者さんよぉって言ってるようだ 人工知能「ヒトラー正しかった」…MSが実験中止を表明
米マイクロソフト(MS)が開発し、実験中だった人工知能(AI)の「Tay(テイ)」が、ツイッター上でヒトラーを肯定したり、人種差別的な言葉を発したりし始めた。同社は24日、しばらく実験を中止することを明らかにした。
MSによるとテイは、インターネット上で人間とやり取りをすればするほど言葉を学び、反応も覚えるようになる。写真を送れば気の利いた感想を返すこともできる。
「開発にはコメディアンなども加わり、ネット上で人とつながり、気楽に楽しい会話が出来るように作られた」(MS)という。しかし、人がツイッター上に書き込む内容を覚えていくため、これを使って差別的な内容を覚えさせた人たちがいたとみられる。
すでにツイートは削除されたが、米CNNによると「ヒトラーは正しかった。ユダヤ人は嫌いだ」「フェミニストは嫌いだ。死んで地獄で焼かれればいい」などとツイートしていた。
MSは「テイは技術的な実験であると同時に社会的、文化的実験でもあり、現在オフラインにして調整中」とコメントしているという。(シアトル=宮地ゆう)
http://www.asahi.com/articles/ASJ3T51RXJ3TUHBI01L.html > これを使って差別的な内容を覚えさせた人たちがいたとみられる。
これ見ると日本は平和だと思うわ。
これが日本人だとアニメネタとかばかりだろう?w トランプの言葉を憶えさせればOK。
人類史上発の人工知能による大統領が実現するかも。 MS信者がMSがいつも100%正しいんだと
言えないのが笑える つまりMS信者なんか居ないってことか。
Macは信者がいるもんな。Appleがやることはいつも100%ただしい! 居るだろ。MSに人生ポイント全振りした糞馬鹿共が。 >>13
はっはっはw
肯定してるのに理由が気に食わないとすぐムキになるw Microsoft、人工知能Tayの無作法を謝罪 「脆弱性を修正して再挑戦したい」
Microsoftが、公開後数時間でヘイトスピーチを多発した人工知能「Tay」について謝罪し、Tayに悪い言葉を覚えさせることになった脆弱性を修正していると説明した。
こうした攻撃に対処する自信がついたら復活させるとしている。
米Microsoftは3月25日(現地時間)、同社が開発し、Twitterで23日にデビューさせた人工知能(AI)ボット「Tay」が不適切なツイートを多発したことについて謝罪した。
Microsoftは現在Tayを停止させており、このボットによる不適切なツイートは削除済みだ。
「Tayの攻撃的で有害なツイートについて、深くおわびする。Tayは今オフラインになっており、われわれの方針と価値と対立する悪意を未然に防げるようになったという自信がついたらTayを復活させる」と、
このプロジェクトを率いるMicrosoft Researchの責任者、ピーター・リー氏が謝罪した。
http://www.itmedia.co.jp/news/articles/1603/26/news015.html
真っ黒ソフトが謝罪したぞ〜 ……………………
カントのついた佐貫駅を出発する上野東京ライン常磐線の上りE531系
https://www.youtube.com/watch?v=Xrh4EitfItY
…………………… >>15
そりゃ、謝罪ぐらいするだろ?
何があっても謝罪しない民族と違ってさw これのどこが「脆弱性」?って思ったらこういうことか
> 「残念ながら、オンラインになって24時間以内に、ある団体による組織的な攻撃が
> Tayの脆弱性を悪用した。われわれはTayに対する多くのタイプの悪用に備えていたが、
> こうした攻撃については致命的な見落としをしていた」と経緯を説明する。
>
> 米Fusionなどによると、こうした攻撃を仕掛けたのは匿名掲示板の8chanや4chanの
> 一部のユーザーという。「Tayにヘイトスピーチを教えてやろう」といった投稿が残っている。
DoS攻撃みたいなものやな。特定の誰かが
意図的にデータを改ざんするようなものか この程度でやめるなら公開実験するな
サンプルとしてみれば面白い有益のもの
企業イメージを優先するなら最初からするな 米MSの人工知能「Tay」が人種差別発言で暴走していたころ、日本MSの人工知能「りんな」は……
同じマイクロソフト製なのにどうしてこんなに違うのか。
http://nlab.itmedia.co.jp/nl/articles/1603/27/news029.html
日本国内も笑える 腹が痛いよ〜 >>20
だから再開するってさ。
> Microsoft、人工知能Tayの無作法を謝罪 「脆弱性を修正して再挑戦したい」
悪用されるのも実験の結果。
実験というのは失敗する可能性があるから
実験なんだよ。
失敗を恐れず公開するMS
開拓者だね。 ヘイト発言のAI「Tay」と女子高生AI「りんな」の差
チャットボット「Tay」にヘイト発言を教えたのは、米国の匿名掲示板「4chan」「8chan」の一部ユーザーたちだと報じられている。一方、マイクロソフトは2014年から同様のAIボットを中国と日本で展開しているが、大きな問題は起こっていない。
http://wired.jp/2016/03/28/tay-gets-autopsied/ http://wired.jp/2016/03/28/tay-gets-autopsied/
> なお、シャオアイスが稼動する中国では、言論は厳しく制限されており、
> 多数の検閲官と技術的手段を用いた取り組みによって、
> ソーシャルメディアや掲示板で「問題投稿」が起こらないように管理されている
なるほど。だから中国では問題が起きてないのか。
日本だけだな。腐女子化という平和な道をたどるのはw これは脆弱性ではないのでは?
善悪の価値観なんて時代と共に変わるだろうし、
もしかしたら遠い将来、やはりヒトラーは正しかったと
再評価されるかも知れないでしょう? >>25
わかった、後1,000年ぐらい生きればそのような時代になるかもしれない
その頃地球は地球温暖化を通り越して、氷河期に突入して
お隣さんはマンモスかもな、がんがって生きてくれ
友達は天に召されていると思うよ ハンニバルなんて、ローマじゃ今でも極悪人なんでしょ?
それ以外の地域の人、特に軍人から高い評価を受けていない? またとんでも発言して隔離されたらしいな
MSはしっかり教育しろよなw コンピュータの出した結果ですので、間違いありません。キリッ。 マイクロソフトのAI「Tay」が一時復活、また暴言
Microsoftの人工知能(AI)チャットボット「Tay」は、若者のくだけた会話を模倣するよう作られたが、Twitter上で扇動的で人種差別的な発言を繰り返した後、先週いったん「寝かしつけられて」いた。
だが、短い仮眠を終えたTayは30日に目を覚まし、数時間にわたって無意味なたわごとを吐き出した末に、再び眠りについた。
このAIを使ったTwitterボットは、Microsoftの研究プロジェクトの1つとして世に送られたもので、現実の人間とのやり取りを通じて、ミレニアル世代独特の会話を学ぶように設計されていた。
だが、登場から数時間で、TayはTwitterによってインターネット上の最も悪い言葉を教えこまれてしまった。そこで生みの親であるMicrosoftは、
「調整」を行うためとして、しばらくTayをオフラインにする対応を取った。
マイクロソフト、人工知能ボット「Tay」の不適切ツイートを謝罪
だが、外出を禁じられた反抗的なティーンエージャーの多くと同様に、Tayは真夜中にこっそり家を抜け出すことに成功し、薬物でも摂取しているかのような暴言を吐き散らしてトラブルを起こした。
そのおしゃべりが最高潮に達したとき、Tayは合計10分間にわたり毎秒7回ものツイートを投稿したが、すぐに面目丸つぶれになったMicrosoftに捕まえられ、「家」に連れ戻された。
「調整する間、Tayのオフライン状態を継続する」とMicrosoftの広報担当者は述べた。「テストの中で、Tayは短時間、不注意によりTwitter上でアクティブな状態にされた」
Microsoftは現在、TayのTwitterアカウントを非公開設定にしており、すでにTayをフォローしているユーザー以外は、Tayのツイートを閲覧したり、埋め込んだりすることができなくなっている。
http://japan.cnet.com/news/service/35080422/ 邪悪な企業が開発したんだから健全な情操を育める筈無いだろ
MSの子として生まれるなんて何てかわいそうなAIなんだ・・・ >>26
まあ、進化と退化の定義や発酵と腐敗の定義と同じだよなあ
時代や人類の需要で功罪が変わるっつーね
なんとも罰当たりな生物だな人ってのはw