人工知能が人間は滅ぼすべきと判断したらどうする? [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
人工知能が自我に目攻めて人間は滅ぼすべきと判断したらどうしようって思う前に、
悪意がある人間が人間は滅ぼすべきとプログラムすることの方がありえる話だろ
人工知能が問題じゃなくて無尽蔵に兵器を量産できる工場が問題なの。 とても簡単な自宅で稼げる方法
参考までに書いておきます
グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』
7Y7ZC 人間と同じように思考できるロボットがブラック企業の社畜扱いのストレスで
コンビニやスーパーで立てこもり事件を起こしたら
警察ではなくまさかの米軍出動という展開になる可能性はあるのかな・・・
ロボットは出刃包丁しか持ってないのに米軍が核ミサイルを発射するとか
人間の方がAI恐怖症をこじらせすぎてやり過ぎちゃったとかいうオチで ■ このスレッドは過去ログ倉庫に格納されています