Commentaires : Nous y sommes : une IA peut « déchiffrer » ce que voit le cerveau

cerveau
Intelligence artificielle
deep-learning
Tags: #<Tag:0x00007f9211ec75e8> #<Tag:0x00007f9211ec6d50> #<Tag:0x00007f9211ec6a30>

#1

Des scientifiques de l’université de Kyoto ont créé une intelligence artificielle (IA) capable de lire les ondes cérébrales d’un individu et de produire une image à partir de ce qu’il regarde, rapporte The Next Web. Ces travaux sont détaillés dans un article de recherche publié fin décembre, intitulé « Reconstruction d’images en profondeur à partir de l’activité du cerveau humain  ». Dans ce cadre, les chercheurs ont montré des images à des volontaires pendant 10 jours et ont mesuré leurs ondes cérébrales.…. Publié sur https://www.numerama.com/sciences/320703-nous-y-sommes-une-ia-peut-dechiffrer-ce-a-quoi-nous-pensons.html par Mathilde Loire


#2

C'est pas nouveau, akinator fait ça depuis 10 ans :stuck_out_tongue:


#3

elle permettrait à une machine, ou à d’autres êtres humains, d’accéder à ce que nous avons de plus privé : nos pensées. Mais nous n’y sommes pas encore.
=> Qu’est ce qu’ils s’en foutent les scientifiques qui y bossent, c’est leur but ! La déontologie, ils se la carrent où je pense !


#4

Nous y sommes : une IA peut déchiffrer ce à quoi nous pensons

Le temps de la télépathie n’est donc pas encore arrivé

Donc c’est quoi l’intérêt de faire un titre qui dit exactement l’inverse du contenu de l’article ?


#5

Je crois que la phrase de la source résume bien ce qui se pass :

If you think of the letter “A” the computer doesn’t actually know what you’re thinking, it just knows what the brainwaves look like when you’re thinking it.

En gros, l'algorithme ne peut que prédire avec une certaine probabilité l'image à laquelle le sujet pense. Image qui doit être connue au préalable du sujet et de l'algorithme.
Donc nous ne somme pas encore au stade où l'analyse des ondes cérébrales permettrait de deviner ce à quoi en pense sans aucune autre information.
Mais c'est quand même impressionnant !


#6

Ce titre pute-à-clique.

Procés d’intention.
De toute façon, deviner ce qui se passe dans le cortex visuel n’a rien à voir niveau complexité avec lire dans les pensées.
Ça revient à prétendre pouvoir aller sur Mars alors que l’on a juste fabriqué une fusée en rouleau de pq propulsée par un ballon baudruche.
La vision est apparue il y a 600 millions d’année et même un moustique et son million de neurones est doué de la vision.


#7

pas forcément, un réseau de neurone donne aussi des réponses pour les images non apprises... c'est même son interet.

et puis comment tu fais pour penser à une image non connue par le réseau s'il a appris des dizaines de milliers d'images ? tu prends tous les peintres humains depuis 500 ans, c'est moins varié que ça.


#8

Un journaliste aurait écrit “Des chercheurs travaillent sur un algorithme de représentations visuelles des ondes cérébrales”.

Mathilde, quand on écrit " j’aime aussi prendre le temps d’enquêter, de comprendre et de réexpliquer ou raconter un sujet de façon claire et vivante" sur un CV, il s’agirait d’éviter de ce genre de titre putaclic qui ne veut rien dire.


#9

Si le réseau a accès à une base gigantesque d'images, ça se tient.
Encore qu'il y a surement des souvenirs très personnels ou des paysages qui ne seraient pas référencés et qui seraient à priori très difficile à deviner.


#10

On peut penser à plusieurs applications basées dessus : des témoignages vérifiables instantanément

Black Mirror, S4E3 Crocodile.


#11

Ça ne fonctionne pas sur une image globale mais par un découpage par zone (un peu comme de gros pixels).
Le réseau de neurones ne vas pas chercher à savoir si tu visualises un éléphant rose en tutu mais plutôt “si telle onde cérébrale alors zone B3 de l’image = rose vif”.


#12

J´ai regardé la vidéo ; je suis rassuré.


#13

c'est bien sévère... je vois aucun problème à dire "lire dans les pensées" quand on parle de visualiser les images mentales.

c'est pas écrit une AI peut lire toutes vos pensées. Personne ne dit que l'AI peut lire si vous etes mélanchoniste...


#14

Pas d’accord : c’est quand même le titre bien accrocheur

Je le mets sur le même plan que Michel Drucker : Agressé par un groupe satanique !

Et quand tu lis, en fait, ce sont ses oreilles qui ont été agressées par un genre musical qu’il n’apprécie pas.


#15

Si c'est ça, j'avais mal compris le fonctionnement du machine learning en effet.


#16

Et y a moyen d’inverser le principe ?
Transformer des images en ondes cérébrales et les envoyer dans le cerveau ?
Ça permettrait aux aveugles de “voir”


#17

En R&D :


#18

C'est impressionnant


#19

Si chacun doit se balader avec son IRM perso, il reste quelques étapes avant que cela puisse être appliqué pratiquement.


#20

En effet, ce n'est pas du tout à base d'ondes cérébrale en fait, mais d'images issues IRMf.
Je me disais aussi que ça paraissait louche.

Du coup, c'est vraiment n'importe quoi cet article, et ça ne nous dit pas qu'est-ce qu’il y a de nouveau dans cette expérience par rapport à ce qui ce faisait déjà, par exemple en 2011 :

Je suppose que la résolution est meilleure.