もちろん、すべての専門家がこれほど悲観的なわけではない。オックスフォード大学などの研究によれば、2700人以上のAI学者への調査で、AIによる人類滅亡のリスクは「5%」程度と見積もられている。 しかし、調査に関わったカチャ・グレース氏は、「滅亡リスクを懸念するのは少数派だと思われがちだが、専門家の間では主流の意見だ。議論の焦点は、そのリスクが1%なのか20%なのかという点にある」と指摘する