Le PDG de Tesla Motors, Elon Musk, n'est pas le seul à craindre l'intelligence artificielle. Stephen Hawking, dont la réputation comme cosmologiste et théoricien n'est plus à faire, est lui aussi très préoccupé par l'idée de donner aux machines des capacités intellectuelles s'approchant de celles des êtres humains. À ses yeux, l'humanité pourrait disparaître à cause d'un développement irraisonné de l'IA.

"Le développement d'une intelligence artificielle complète pourrait signifier la fin de l'espèce humaine", a-t-il expliqué, dans des propos rapportés par la BBC. Le physicien a noté qu'une intelligence artificielle pourrait s'améliorer seule à un rythme de plus en plus élevé, jusqu'à dépasser les Hommes. "Les Humains, qui sont limités par une évolution biologique lente, ne pourraient pas rivaliser et seraient remplacés".

Le développement de l'IA a donné lieu à des réflexions sur son encadrement, dont la plus connue a été imaginée par l'écrivain Isaac Asimov, avec ses lois sur la robotique. Il ouvre aussi des questions éthiques, philosophiques et morales. Si l'intelligence artificielle atteint un certain niveau,  faudra-t-il lui accorder des droits ?


Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.