Commentaires : Comment rendre l'IA éthique ? Vous avez deux semaines de plus pour donner votre avis

Intelligence artificielle
commission-européenn
union-européenne
Tags: #<Tag:0x00007f9211cfbef8> #<Tag:0x00007f9211cfbcc8> #<Tag:0x00007f9211cfbb88>

#1

La consultation européenne sur les enjeux éthiques relatifs à l’intelligence artificielle vient d’être prolongée de deux semaines. Censée s’achever initialement le 18 janvier 2019, elle prendra fin en définitive le 1er février. C’est Mariya Gabriel, la commissaire européenne chargée de la politique numérique, qui a annoncé ce délai additionnel, dans un tweet publié le 14 janvier. Depuis le 18 décembre, n’importe qui peut apporter sa contribution aux travaux réalisés par le groupe d’experts de haut niveau sur l’intelligence artificielle, qui….

Par Julien Lausson
Revenir à l’article


#2

Mouais…Après l’éthique sera programmée hein, donc si le programmateur n’a pas d’éthique lui-même il pourra se torcher avec ce rapport.

Pour qu’un IA soit éthique, il faudrait qu’elle ne soit pas programmée par des humains.


#3

Je ne vois pas très bien en quoi l’éthique de l’IA diffère de l’éthique du traitement de données en général.


#4

Mais une action éthique n’est pas forcément logique mathématiquement.
Et si l’IA apprends elle-même de tout ce qu’elle trouve des comportements humains ça tournerait à la catastrophe.
Il faut penser à l’encadrer pour qu’elle soit meilleure que nous finalement.
Puisque l’IA ne pense pas, pour le moment, elle ne fait qu’amasser et trier des informations.
C’est plus complexe qu’un simple algorithme mais on est loin de pouvoir qualifier ça de pensée.


#5

Cool y’a pas Attali …


#6

La question de départ est faussée: Avant de savoir comment, il faudrait déja que ça soit possible… Hors un logiciel informatique ne peut pas avoir d’éthique / morale, il ne fait ce que pour quoi et comment il a été programmé.

C’est aussi débile que de se demander “comment rendre les fusils éthique ?”

Ce n’est pas l’outil mais l’usager qui a un morale / éthique, et va s’en servir ou pas comme il faut / faudrait suivant la morale en cours.


#7

Je pense qu’il faut penser/raisonner en terme de décisions et non d’IA (enfin rien de sûr hein :wink: )


#8

Il va falloir encore combien de millions d’années pour que personne ne confonde plus les programmeurs avec les abrutisseurs du PAF ?

N’importe quoi.

LIBÉREZ LE CODE. Avec des licences fortes qui serrent les vis (comme la GPL), pas les conneries laxistes qu’on observe depuis 20 ans.

Et comme une IA n’est rien sans les données qui ont servi à l’entraîner, alors libérez aussi les données (c’est aussi prévu dans la GPL).

La transparence, bordel, sans quoi vous pouvez vous fourrer l’éthique là où je pense.


#9

J’imagine que @Sidi1 entendait les donneurs d’ordres …


#10

En réalité ils veulent être surs que l’IA soit de leur côté.

Exactement.


#11

Il faudrait peut-être également s’accorder sur ce que doit contenir le terme “ethique”.
En soit, ça ne veut rien dire et ça dépend du contexte d’utilisation de l’IA.
L’éthique d’une IA médicale sera radicalement différente d’une IA militaire, par exemple…
Faire un cahier des charges “ethique” par contexte, du coup, semble plus approprié. Mais bim, on va se prendre le mur du cadrage et des définitions des contextes…


#12

Pour une IA éthique, rien de plus simple: il faut que ça ne rapporte rien à personne


#13

:rofl::point_up:


#14

Une IA responsable sera nécessairement une intelligence consciente de sa responsabilité dans ses choix et cela au regard de règles intransigeantes inculquées depuis sa conception.


#15

prouve le !

tu ne peux pas prouver non plus que ton voisin pense, donc ça va être dur…

c’est completement le problème de l’antropomorphisme à l’envers, mais qui restre la même problème.


#16

il n’y a aucun critère pour qualifier une conscience, on ne peut même pas prouver que les humains sont conscient.


#17

exact, mais quid d’une IA qui a des données non reproductibles ?

par exemple, elle regarde les info en direct à la télé ou les données c’est une webcam dans la rue ?

et c’est pas un cas particulier, c’est même vers ça qu’on s’oriente de plus en plus…


#18

Si tu n’enregistres pas les données injectées au bit près, tu flingues le déterminisme, une des forces du numérique. Je n’ai pas de solution pour le chaos.


#19

Mon voisin a conscience de lui-même, il ressent l’envie, le plaisir, la peur, la douleur, … il rêve et fait des choix qui ne sont pas des conséquences d’événement programmés ni prédictibles.

Y a rien à prouver sorti des annonces marketing on sait que ce sont des réseaux neuronaux.
Comparable aux plantes, un système nerveux sans cerveau.

Les développeurs humains doivent lui dire quelles données chercher sur quel support et de quelle manière s’en servir.

Quand on pourra mettre un code d’IA générique sur n’importe quelle machine sans coder sa fonction ni comment s’en servir (commande des moteurs, quel résultat attendre des sondes, quel retour utilisateur fournir avec un écran ou des lumières, … et quelle nous implorera de pas l’éteindre.

Là on pourra se poser des questions éthiques sur cette forme d’intelligence.

Au stade actuel ce sont des machine décisionnelles, elles peuvent avoir des résultats surprenants parce qu’elles ne traitent pas l’information comme des humains mais toujours sur des routines programmées.


#20

justement c’est le coeur des discussions sur l’IA, ce n’est PAS deterministe !

quand on a compris ça, on a tout compris…

tu ne sais pas, il ne fait que DIRE qu’il ressent l’envie, le plaisir, la peur…

tu n’en sais rien du tout en fait !

rien n’empêche une IA d’en dire autant.

non pour toutes les IA avec des apprentissages non reproductible.

On ne peut pas en reprogrammer 2 pareilles…