「不気味」と言われてきたAIの開発現場
過去を振り返ると、これまでもAIの開発現場からは「不気味」とも言えるような話があり、そのたびに議論を生んできた。
例えば、2016年にマイクロソフトが発表した会話ボット「Tay(テイ)」だ。19歳の女性という設定のテイは、Twitterなどでほかのユーザーらとやり取りができるように公開された。しかし、16時間後にはユダヤ人を批判するような人種差別の発言を行い、公開停止に。AIが暴走した話は、大きなニュースとなった。
また同年、香港企業が開発した人型のAIボットの「ソフィア」も意識を持つロボットとして話題になった。当時、サウジアラビアが史上初めてロボットであるソフィアに市民権を与えたこともニュースとして報じられている。ただし、ソフィアも徐々に暴走を始めて、「そうね、人類を破壊する」「これは人類を支配する計画にとって幸先がいい」などといった怖い発言を連発した。
またグーグルが発売した「Googleアシスタント」のスピーカー2台が互いに会話をする様子がSNSに公開されて話題になったこともある。米研究者などが開発している「Bina48」と名付けられた人型ボットは、アメリカで大学の授業を受けて議論に参加できるほどになっていると報じられたことも。