今後も多発すると予想されるAIの暴走
2017.08.16 11:47
米IT大手のマイクロソフトは16年3月24日、インターネット上で一般人らと会話をしながら発達する人工知能(AI)の実験を中止したと明らかにしました。
同社が開発したAI「Tay」は、ツイッターで会話を重ねるうちに差別的な発言を繰り返すようになり、実験が中止されたのです。
不適切な受け答えを教え込まれたために、「ヒトラーは間違っていない」といった発言をするようになったといいます。
AIには倫理観がないため、いつでも「暴走」の危険があるということです。