Commentaires : Comment rendre l'IA éthique ? Vous avez deux semaines de plus pour donner votre avis

Intelligence artificielle
commission-européenn
union-européenne
Tags: #<Tag:0x00007f9211156120> #<Tag:0x00007f9211155f68> #<Tag:0x00007f9211155dd8>

#41

Ton raisonnement de base est juste biaisé donc tout le reste de ton argumentation aussi.
Si on ne fournit pas les mêmes données, même une opération arithmétique d’école primaire ne retournera pas le même résultat.

donc ton exemple démontre seulement que le chaos et chaotique et qu’un ordinateur est capable d’amasser beaucoup de données mais pas qu’un réseau neuronal simple, aussi rapide soit-il peut être doué de libre arbitre.

Le cerveau (humain) reste sur de nombreux points toujours incompris mais un algorithme informatique simulant un réseau neuronal ça c’est parfaitement clair et mathématique. Y a aucun débat à avoir là dessus.


#42

Allez! Encore 8 jours … :crazy_face::crazy_face:


#43

oui… et que donc un humain qui est programmé par ses 5 sens 24h/24 7/7 depuis sa naissance est donc une simple machine chaotique.

et qu’on appelle ça conscience / créativité / intuition / etc

et que donc réciproquement, une IA de milliards de neurone, programmée de la même manière est… aussi douée de conscience / créativité / intuition / etc

il est incompris car il y a des milliards de neurones et qu’on ne sait pas ce qu’ils font.

mais si tu prends un bloc de 10 neurones humain c’est parfaitement clair de ce que ça fait… ya aucun mystère.

en IA c’est pareil…


#44

OK alors fous une Tesla dans un champs (ou n’importe quelle meilleure voiture autonome), ne lui donne aucun ordre et vois si elle trouve cette situation normal, si elle cherchera à en changer et si elle en est capable.

Ou jette une poignée de neurones dans une simulation, ne code aucun ordre et vois ce qu’il se passe : Rien

Si on veux une forme d’intelligence comparable au vivant donc capable de s’adapter par expérience/élimination sans coder comment faire, on a que la capacité intellectuelle de fourmis.

Dans les heures de dashcam passées aux pilotes automatiques, on code ce qu’ils doivent chercher et les données qu’ils doivent en tirer pour tenter de reproduire par mimétisme les comportement observés.
Ce sont des systèmes d’analyse et recoupement de données avancés qui échouent s’ils doivent réagir à un événement qui n’a pas déjà été observé.


#45

euh c’est déja le cas… l’AI google du jeu de GO a appris les règles du jeu d’echec par expérience/elimination sans qu’on lui programme les règles du jeu d’echec.

A minuit, elle avait le niveau d’un enfant de maternelle aux echec… à midi le niveau d’un adulte, et à 23h, meilleure que Kasparov.