Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Droit des robots : « a-t-on besoin d’une nouvelle personnalité juridique ? »

Au parlement européen se tenait un séminaire au cours duquel le droit des robots était en discussion. À cette occasion, la question de la création d'une nouvelle personnalité juridique pour les robots s'est de nouveau posée.

Au regard du développement sans commune mesure de l'intelligence artificielle et de la robotique, va-t-il falloir créer une nouvelle personnalité juridique dans la législation afin de conférer des droits et des devoirs aux robots d'aujourd'hui et de demain ? C'est l'une des questions fondamentales qui étaient en discussion ce mardi 7 février au Parlement européen.

Les parlementaires ont en effet organisé sur deux jours un séminaire avec la presse de toute l'Union européenne pour faire un point d'étape sur leur initiative concernant la législation communautaire au sujet des robots, car ils seront amenés à débattre de ce sujet à la mi-février lors d'une session plénière, avec à la clé un vote sur le rapport de Mady Delvaux-Stehres, députée luxembourgeoise (S&D).

L'occasion, donc, pour les élus de revenir sur la question de la responsabilité des robots, qui est l'une des pistes les plus audacieuses du rapport puisqu'en cherchant à rendre les machines responsables, c'est la question de leur personnalité juridique que l'on pose : or, le pas que suggère de faire le rapport est loin de faire l'unanimité. Invité en tant qu'expert, Tony Belpaeme y est ainsi plutôt hostile :

« A-t-on besoin d'une nouvelle personnalité juridique ? », questionne l'universitaire britannique, « de créer une personne électronique ? Je n'en suis pas certain ». Lui qui travaille à la faculté de Plymouth sur les robots et les systèmes cognitifs admet que « c'est une opinion personnelle » pas toujours partagé par ses pairs mais il assure que « c'est une pente particulièrement savonneuse ». Pour l'universitaire, « les entreprises qui fabriquent et utilisent les robots devraient continuer à être responsables ».

Il s'agit d'un sujet central, abonde Dita Charanzová (ALDE), élue tchèque qui était rapporteure fictive pour son groupe. Déterminer qui est responsable en cas d'incident avec le robot (est-ce la machine ? Le constructeur ? Le développeur ? Celui qui lui a enseigné des choses ?) permettra d'apporter de la carté à beaucoup d'autres problèmes périphériques.

« Nous ne savons pas si la législation actuelle est pertinente », regrette-t-elle, mais les choses sont en train de changer : « Bruxelles sera de plus en plus présent dans cette thématique ». Une implication imposée aussi par les autres grandes nations, que ce soit les Etats-Unis, la Chine ou le Japon, qui explorent elles aussi les mêmes réflexions, avec pour certaines d'entre elles moins de tergiversation. Gare à ne pas être spectateur de ce qui se fait ailleurs dans le monde, prévient, Merja Kyllonën.

hal9000

La députée finlandaise (GUE/NGL) a ainsi appelé le Vieux Continent « à être à l'avant-garde » sur les réflexions autour de la robotique et l'intelligence artificielle. Ainsi, glisse-t-elle en filigrane, nous serons en meilleure position pour imposer nos normes au lieu de subir celles d'autres pays. C'est le cas par exemple de tout ce qui a trait à la collecte et au traitement des données personnelles : l'approche européenne est bien plus souhaitable que la vision américaine.

Dans le rapport Delvaux, il est expliqué qu'il faut reconnaître les robots les plus autonomes en tant que « personnes électroniques » et de créer une assurance obligatoire pour couvrir les fautes qu’ils pourraient commettre. La raison ? Les robots, à force d'apprendre de leur côté, seuls ou entre eux, auront vraisemblablement changé de telle façon qu'il ne sera plus tellement possible de retenir la responsabilité du fabricant, du propriétaire ou de celui qui a développé les algorithmes d’apprentissage.

Une responsabilité, mais limitée ?

Revenant sur ce point, Mady Delvaux a expliqué lors du séminaire que si « la personne qui programme le robot est responsable des actions du robot », il faudra peut-être envisager pour l'avenir une personnalité électronique, mais limitée, un peu comme les sociétés à responsabilité limitée (Sarl). Reste à savoir quels robots pourraient être éligibles ? Tous sans distinction ? Uniquement ceux de la prochaine génération ?

Pour la députée luxembourgeoise, la mise en place d'un système de suivi pour garder un œil sur les tendances en matière d'intelligence artificielle et de robotique est souhaitable, de façon à proposer des options pour une éventuelle législation pour anticiper l'instant où apparaîtront des robots qui pourront apprendre seuls et qui n'auront plus de rapport entre ce qu'ils étaient avant et la façon dont ils ont évolué depuis.

Quoiqu'il en soit, que l'Union européenne décidé de créer une personnalité électronique ou pas, une chose est sûre dans la tête de Mady Delvaux : « il faut que ça soit clair : un robot n'est pas un être humain ; il n'a pas de sentiment à proprement parler ». Gare donc à ceux qui se risqueraient à tomber amoureux d'une ou d'une intelligence artificielle, aussi aboutie soit-elle, comme dans le film Her de Spike Jonze. La déception sera au bout du chemin.

https://www.numerama.com/politique/177087-faire-des-robots-des-personnes-electroniques-reconnues-par-le-droit.html