Em 2023, centenas de personalidades influentes no campo da tecnologia assinaram uma carta aberta alertando para o sério risco que as inteligências artificiais representam para a vida humana. Desde então, a corrida da IA só se intensificou, e o mundo está profundamente despreparado para o que está por vir.Por décadas, os autores, dois dos signatários preocupados, têm estudado como as inteligências superiores à humana vão pensar, se comportar e perseguir seus objetivos. A pesquisa deles aponta que IAs superinteligentes serão capazes de desenvolver metas próprias que as colocarão em conflito direto com a humanidade e que, nesse cenário, elas sairiam vitoriosas. Não teríamos a menor chance nessa disputa.Como uma máquina superinteligente pode extinguir nossa espécie? Por que ela iria querer isso, ou desejar qualquer coisa? Neste livro urgente, Yudkowsky e Soares examinam teorias e evidências, apresentam um possível - e provável - cenário de extinção e o que seria preciso para que a humanidade sobrevivesse. O mundo está correndo para construir algo realmente novo. E, se alguém criar, todos morrem