Dans un essai remarqué, Nick Bostrom, philosophe et directeur du Future of Humanity Institute, pose le constat que si une superintelligence venait à être créée et qu’elle surpassait l’intelligence générale humaine, elle pourrait remplacer et dominer les humains.
Superintelligence: Paths, Dangers, Strategies : c’est le titre de l’essai publié par Nick Bostrom où il évoque la forte probabilité de l’émergence d’une superintelligence grâce aux progrès rapides de la recherche dans le domaine de l’intelligence artificielle (IA). Quel que soit le temps nécessaire (qui pourrait être court selon lui), une fois qu’une machine d’un niveau cognitif comparable aux humains sera développée, un système « superintelligent dépassant largement les performances cognitives de l’homme dans pratiquement tous les domaines » devrait suivre rapidement. Une telle superintelligence serait difficile à contrôler ou à restreindre. Nick Bostrom met en garde et en appelle à une pratique déontologique dans le domaine de l’intelligence artificielle. Il évoque les risques d’une course à l’IA, à l’image de la course à l’arme atomique et prône une collaboration internationale comparable au CERN, l’organisation européenne pour la recherche nucléaire, afin de développer une « IA bénéfique ».