Cet article date de plus de neuf ans.

Faut-il craindre l'intelligence artificielle ?

Selon Stephen Hawking, l’intelligence artificielle menacerait la race humaine. C'est aussi l'avis de l'entrepreneur américain Elon Musk. Pourquoi de telles craintes ?
Article rédigé par Jérôme Colombain
Radio France
Publié Mis à jour
Temps de lecture : 8 min
  (©)

Le célèbre astrophysicien handicapé Stephen Hawking n'est pas un réfractaire à la technologie. D'ailleurs, il utilise lui-même, au quotidien, de l’intelligence artificielle. Le système informatique qui lui permet de s’exprimer (avec sa fameuse voix de robot), juste à l’aide d’un muscle de sa joue, est en effet basé sur la prédiction des mots. Pourtant Stephen Hawking met en garde. Selon lui, l’intelligence artificielle – c'est-à-dire le fait que des ordinateurs pensent comme des êtres humains – pourrait provoquer « l’extinction de la race humaine  ». C’est ce qu’il a déclaré à la BBC.

 

Que craint Stephen Hawking exactement ?

 

Le scientifique pense que le jour où les machines seront capables de se prendre en charge toutes seules, elles n’auront plus besoin des hommes et elles feront tout pour s’en passer. Un vrai scénario de science fiction, genre Matrix, Terminator et 2001 L’Odyssée de l’espace à la fois. En effet, Stephen Hawking explique que les humains sont défavorisés car ils sont limités par une lente évolution biologique alors que l’intelligence artificielle des ordinateurs, elle, va beaucoup plus vite. Imaginez des machines fabriquant elles-mêmes d’autres machines et que des ordinateurs programment d’autres ordinateurs. Stephen Hawking est considéré comme l’un des plus brillants scientifiques vivants. Autant dire que lorsqu’il s’exprime, on tend l’oreille.

 

Stephen Hawking n’est pas le premier à mettre en garde contre l’intelligence artificielle…

 

Non. Avant lui, un autre  "gros cerveau "du numérique s’est également exprimé sur le sujet : c’est l’entrepreneur californien Elon Musk, patron de la marque automobile Tesla, de l’entreprise de fusées SpaceX ou encore promoteur du projet de turbotrain ultra rapide Hyperloop. Elon Musk pense lui aussi que l'intelligence artificielle c’est dangereux. Ce serait même, selon lui, potentiellement plus dangereux que le nucléaire. Il compare cela au fait d’invoquer le démon et de ne pas parvenir en fin de compte à le dominer. Voilà de quoi nous empêcher de dormir. Elon Musk pense que l’Etat devrait se mêler d’intelligence artificielle comme il se mêle de questions d’éthique en matière de médecine. 

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.