logo fullscreen logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
logo fullscreen logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
Menu
mobile logo
  • Dossier
    • IA quantique
    • Réseaux de neurones enzymatiques
    • Le méta-apprentissage fait ses premiers pas…
    • Les avancées prometteuses de l’apprentissage auto-supervisé
    • Que peut l’intelligence artificielle contre les fake news ?
    • Quand l’IA nous regarde…
    • Les réseaux de neurones impulsionnels
    • Quantification de la fragilité
    • Covid-19 et data
    • Ville algorithmique
    • Perception des véhicules autonomes
    • Formation continue
    • Data gouvernance
    • À la recherche des sens perdus
    • Deepfake
    • Agriculture numérique
    • Legal Tech
    • Données de santé
    • Start-up IA
    • Learning Analytics
    • Métiers de la data
    • Recherche IA : public/privé
    • Cybersécurité
    • Emplois dans la Data
    • Innovation et Data
    • Open source
    • Green IA
    • Sciences humaines et sociales et data
    • Voiture autonome
    • IA et création artistique
    • Des algos de confiance
    • Data cities
    • L’homme sur mesure
    • Débats autour des datas
    • Data science & robots
    • Usine 4.0
    • Données personnelles
    • Valorisations des données
    • Formation
  • Innovation
  • Expertise
  • Portrait
  • Point de vue
  • Lexique
  • + loin
    • Timeline
    • Repository
  • Emploi
    • Fiches métiers
  • S’abonner
    • NEWSLETTERS DÉJÀ PARUES
18 juillet 2017
A la Une, News, Point de vue

Du risque d’une superintelligence artificielle

⏱ 2 min

Comme le rappelait récemment Nick Bostrom, philosophe et directeur du Future of Humanity Institute dans une conférence à l’USI (Unexpected Sources of Inspiration), « les pionniers de l’intelligence artificielle (IA) étaient très optimistes, ils pensaient que cela ne prendrait qu’une dizaine d’années. Mais malgré cela, ils ne s’exprimaient pas sur les conséquences … Il y a eu étonnamment peu de réflexion sur ce qui se passerait si nous parvenions vraiment à reproduire la forme d’intelligence générale qui caractérise l’esprit humain. » Son institut a rejoint en mai 2017 l’organisation créée en septembre 2016 par Google, Amazon, Facebook, IBM et Microsoft, Partnership on AI, destinée à promouvoir les bonnes pratiques. Rappelons que Nick Bostrom avait publié un essai remarqué en 2014 sur la superintelligence.

Les réflexions éthiques autour de l’IA sont désormais partagées par le plus grand nombre, chercheurs et industriels. Si certains comme Irvin John Good prévoyaient dès 1965 le risque d’une machine ultra intelligente, idée reprise en 1993 par Vernor Vinge, c’est surtout à partir du XXIe siècle que les risques liés à une superintelligence sont de plus en plus souvent évoqués, à l’instar de la publication de Bill Joy en 2000 et lors des débats qui ont suivi en 2004. Dès 2005, Raymond C. Kurzweil analyse les impacts de ce qu’on appelle la « singularité technologique ». C’est ce point hypothétique de l’évolution technologique au-delà duquel les changements seraient imprévisibles. C’est un des sujets d’étude du Center for Study of Existential Risk créé en 2012. De nombreuses personnalités comme Stephen Hawking, Elon Musk ou Bill Gates prennent désormais régulièrement part au débat pour alerter l’opinion publique comme en 2015, dans une lettre ouverte. Ainsi, le 15 juillet dernier, devant les gouverneurs des Etats américains, Elon Musk réitérait ses mises en garde contre ce qu’il qualifie de « plus grand danger pour la civilisation humaine » et appelait à mettre en place une régulation avant qu’il ne soit trop tard.

Isabelle Bellin

De quoi poursuivre la réflexion :

  • Superintelligence: Paths, Dangers, Strategies de Nick Bostrom, 2014
  • Le Mythe de la Singularité, Faut-il craindre l’intelligence artificielle ? de Jean-Gabriel Ganascia, 2017

RVLF Superintelligence Artificielle

2016
2016

Une intelligence artificielle bénéfique à la société

Tel est l’objectif du Partnership on AI lancé par Google, Microsoft, Facebook, Amazon et IBM, rejoints en 2017 par Apple. Cette organisation à but non lucratif (Partenariat sur l’IA) a pour but de réfléchir à l’intelligence artificielle (IA), de promouvoir […]

2015
2015

Mise en garde contre une superintelligence

Une lettre ouverte destinée aux chercheurs en robotique et intelligence artificielle, publiée sur le site du Future of Life Institute rappelle les bénéfices et les écueils de l’intelligence artificielle. Elle est signée par 8 000 chercheurs en juin 2017, dont les […]

2014
2014

Le risque de la superintelligence

Dans un essai remarqué, Nick Bostrom, philosophe et directeur du  Future of Humanity Institute, pose le constat que si une superintelligence venait à être créée et qu’elle surpassait l’intelligence générale humaine, elle pourrait remplacer et dominer les humains. Superintelligence: Paths, […]

2012
2012

Étudier les risques existentiels

Le Center for Study of Existential Risk (Cambridge) étudie les futurs risques de menaces technologiques. Le centre de l’université de Cambridge a été fondé par les chercheurs Huw Price, Martin Rees et Jaan Tallinn. Un des projets porte sur le […]

2005
2005

La singularité technologique de Kurzweil

Raymond C. Kurzweil met en garde contre un emballement de la croissance technologique. Dans « The singularity is near » publié en 2005, le directeur de l’ingénierie chez Google, professeur au MIT, auteur de nombreux ouvrages sur la santé, l’intelligence artificielle, […]

2005

Institut pour l’avenir de l’Humanité

Ce centre de recherche d’Oxford est créé pour se consacrer aux questions concernant l’humanité et son avenir. Le Future of Humanity Institute (FHI, Institut pour l’avenir de l’Humanité) est un centre de recherche interdisciplinaire de l’université d’Oxford. Cette unité de […]

2004
2004

Réguler les recherches en intelligence artificielle

Premiers débats à l’échelle mondiale. En partie en réaction à la portée du texte de Bill Joy dans Wired, une réunion à Alexandria (États-Unis) rassemble pour la première fois des experts de 26 pays qui débattent de la façon de […]

2000
2000

« Why the future doesn’t need us ”

C’est le titre de la publication de Bill Joy qui prédit que les robots intelligents remplaceront l’humanité. Publié dans le magazine américain Wired, l’article de Bill Joy, responsable scientifique de Sun Microsystems, explique qu’il est convaincu qu’avec les avancées scientifiques […]

1993
1993

Vers une intelligence surhumaine ?

C’est la prédiction de Vernor Vinge, professeur de mathématique, d’informatique et auteur de science fiction. Il la prévoyait entre 2005 et 2050. Dans trente ans (2023), disait Vernor Vinge dans son essai, La venue de la singularité technologique (The Coming […]

1967
1967

Les prévisions optimistes de Minsky

Une génération pour régler les problèmes liés à l’intelligence artificielle. Marvin Minsky pensait qu’en une génération, tous les problèmes liés à l’intelligence artificielle seraient résolus, et que : « Dans trois à huit ans, nous aurons une machine aussi intelligente qu’un […]

1965
1965

Une machine ultra intelligente

Irvin John Good, statisticien britannique, prédit que la machine ultra intelligente sera la dernière invention que l’homme inventera. Voici ce qu’il prédisait : « Supposons qu’existe une machine surpassant en intelligence tout ce dont est capable un homme, aussi brillant soit-il. […]

Termes liés :
  • Intelligence artificielle (IA)
Share:
Posts you'd might like
En attendant l’ordinateur quantique universel…
L’IA teste ses premiers algorithmes quantiques
Les promesses de l’IA quantique
La recherche à l’assaut des deepfakes vocaux
Recyclage : nos déchets sous l’œil de l’IA
Stéphane Canu :
au service de l’IA et de la mobilité de demain
DAP, la newsletter du Data Analytics Post Recevez chaque semaine un éclairage sur les data science

Peut-on laisser un algorithme apprendre tout seul ?

A la différence de l’apprentissage supervisé, le contexte non supervisé est celui où l’algorithme doit opérer à partir d’exemples non annotés.

En savoir plus

ARTICLES RÉCENTS
  • En attendant l’ordinateur quantique universel…
  • L’IA teste ses premiers algorithmes quantiques
  • Les promesses de l’IA quantique
  • La recherche à l’assaut des deepfakes vocaux
  • Recyclage : nos déchets sous l’œil de l’IA

Tout savoir sur…

Le DAP

Comité Éditorial

Partenaires

Équipe


Copyright © Data Analytics Post. Tous droits réservés.

Mentions légales & CGU