Paste your Google Webmaster Tools verification code here

Big Data

Selon Stephen Hawking, l’intelligence artificielle est un danger pour l’humanité

on


Le célèbre astrophysicien Stephen Hawking relance le débat sur la menace de l’intelligence artificielle pour l’humanité.

Du HAL 9000 de l’Odysée de l’Espace à la saga Terminator, la peur des intelligences artificielles est un thème récurrent des oeuvres de science-fiction. Alors que les machines deviennent plus intelligentes et que nous leur confions davantage de tâches, l’humanité doit-elle craindre l’intelligence artificielle ? Le mathématicien et cosmologue Stephen Hawking affirme que les machines pensantes sont une menace pour nous. Il explique lors de sa récente interview à la BBC que « les formes primitives d’intelligence artificielle que nous avons déjà se sont montrées très utiles […] mais je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à la race humaine ». Il ajoute,« [une telle forme d’intelligence] pourrait s’émanciper et même améliorer sa propre conception à une vitesse toujours croissante. Les humains, limités par leur évolution biologique lente, ne pourraient pas rivaliser, et seraient détrônés ».

Stephen Hawking n’est pas le seul à partager cette peur d’un soulèvement des machines puisqu’en octobre dernier lors d’une conférence du MIT, Elon Musk s’était aussi prononcé sur le sujet. D’après le PDG de Tesla Motors et Space X, l’intelligence artificielle est « notre plus grande menace existentielle ». En comparant l’utilisation de cette technologie à l’invocation du démon qu’on espère contrôler, l’entrepreneur américain a clairement exprimé son opinion négative sur le développement d’intelligences artificielles. Pour un meilleur contrôle du danger, Elon Musk souhaiterait même une supervision étatique du projet.

Notons que Google qui possède des sociétés de robotique (Boston Dynamics) et d’intelligence artificielle (Deep Mind) a déjà constitué un Comité d’Ethique dédié aux questions soulevées par ces technologies. En Europe, une équipe de recherche britannique vient de lancer un projet collaboratif sur les machines autonomes et sur l’élaboration d’un cadre législatif sur les normes industrielles et éthique des robots. Le professeur Alain Winfield qui participe au projet explique « si nous devions faire confiance aux robots, en particulier lors de nos interactions avec eux, ces derniers devront être plus que fiables. Nous avons déjà prouvé au laboratoire qu’un robot peu complexe peut être éthique, et suivre de manière étonnamment proche les fameuses lois d’Asimov. Nous devons maintenant prouver qu’un tel robot sera capable d’agir éthiquement de manière immuable, tout en cherchant à comprendre l’utilité de tels robots dans le monde réel. »

Pour rappel, les trois lois de la robotique imaginées dès 1942, par l’auteur d’oeuvre de science-fiction Isaac Asimov sont :

  1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.
  2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.
  3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.

Sources : Sheffield University,

Commentaires

commentaires

About Thomas Graindorge

Fan de nouvelles technologies, je suis co-fondateur du site After the Web. N'hésitez pas à me contacter pour devenir à votre tour rédacteur sur le site.

Recommended for you

You must be logged in to post a comment Login