Suite du sujet Ce processeur ne sait pas bien calculer et c'est très bien comme ça:
"Régler la caméra pour avoir une image floue" ne change rien au problème qui est que la caméra continuera à produire un "bruit" numérique qui est toujours aussi gênant et perturbe toujours les méthodes classiques de calcul dit "exact".
Le traitement numérique (en précision finie) est tout aussi perturbant car il produit intrinsèquent (dès le départ) ses propres erreurs dont l'accumulation s'amplifie et finit par donner des résultats totalement arbitraires.
En fait calculer une unique valeur numérique (quelle que soit sa précision) ne suffit pas: pour que le résultat soit utilisable il faut aussi estimer la marge maximale d'erreur commise. Ca double la quantité de calcul à effectuer, mais à la fin ça arrête un calcul divergent (pour lequel on n'obtiendra en fin de compte plus aucun résultat alors qu'on aura dépensé beaucoup d'énergie pour savoir qu'on n'aura pas de résultat).
On peut faire autrement (et beaucoup plus vite) par des méthodes non pas numériques mais probabilistes, qui fourniront également une estimation de la marge d'erreur (et cette marge est même bien souvent bien meilleure: en fin de compte on a le résultat plus vite, et même un résultat exploitable beaucoup plus souvent):
Une barrière à lever est justement le traitement numérique (binaire) du signal, on commence à voir revenir le traitement analogique au premier plan, même si on sait qu'il contient aussi du bruit (mais on sait mieux contenir ce bruit alors qu'on n'y arrive plus maintenant avec les moyens numériques qui atteignent aujourd'hui les limites quantiques).
On a cru depuis les débuts de l'informatique qu'on pourrait tout faire avec une logique binaire qui aujourd'hui s'avère très inefficace, très gourmande en énergie, très polluante et très chère (à la limite de la rentabilité pour les fabricants qui prennent des risques énormes sur des investissements en milliards de dollars et avec une quantité de plus en plus grande de déchets sur les processeurs produits).
Aujourd'hui il faut accepter qu'on va vivre avec des processeurs qui feront des "erreurs" et qu'on ne trouvera bientôt plus aucune paire de processeurs fournissant des résultats toujours identiques pour les mêmes données et programmes en entrée.
Ca change complètement la donne en terme de programmation: il va falloir créer des algorithmes "stables" qui savent limiter les divergences.
Les algos décisionnels d'aujourd'hui seront plutôt destinés à traiter des données peu nombreuses et moins fréquentes (ça ira pour gérer des comptes bancaires individuels, mais pour des algos boursiers on a déjà de graves problèmes et des divergences explosives très dangereuses, que les opérateurs humains ont du mal à prévenir et contrôler).
On continuera donc à utiliser une logique binaire pour gérer des scénarios de jeux, mais pour les rendus scénographiques ou sonores ou pour régler les batailles entre joueurs et savoir qui est mort, on aura aussi une part de "chance" où la dextérité des joueurs ou la rapidité de leur connexion au réseau n'aura plus d'influence (et ce sera aussi plus équitable entre joueurs, à condition que cette part de logique flue tranchée par les hasard soit réellement un hasard non biaisé volontairement par des tricheurs ou par l'éditeur du jeu en ligne agissant dans son seul intérêt économique ou par "copinage" pour faire plaisir à quelques personnes influentes qui leur demanderont d'introduire une tricherie).
Pour l'imagerie 3D, peu importe aussi si une sphère n'apparait pas toujours parfaitement ronde du moment qu'elle parait localement à peut près bien lissée. Dans la réalité aussi la sphère parfaite n'existe pas. Peu importe s'il y a des imperfections dans le rendu des textures d'un mur, d'un rocher, d'un feuillage, d'un tissu ou du grain de peau d'un personnage : dans la réalité aussi ces textures sont aussi imparfaites, même les plus beaux nids d'abeille, et le résultat est même plus probant s'il y a des imperfections (qui ne sont pas non plus des imperfections purement liées au traitement numérique qui donne des résultats aberrants et très indésirables, tels que les effets de "moiré" très visibles dans les images, ou les résonances harmoniques dans un son numérisé)
Je pense même que cela ira au delà des seuls traitements sur ordinateurs: on a maintenant besoin de logique floue aussi pour les télécommunications longue distance (on pourrait encore améliorer les performances des modems sur lignes analogiques en oubliant le traitement numérique du signal DSL, et énormément augmenter le débit "utile" sur des liaisons fibre si on accepte aussi de transmettre des erreurs et ne pas toujours chercher à les éliminer ou les corriger).
Il y aura aussi des applications dans des algos de sécutité, notamment en cryptographie.
L'informatique "quantique" balbutiante va nous produire de nouvelles possibilités, de nouveaux langage de programmation "floue", avec moins de points de synchronisation (qui pénalisent partout les performances), où on demandera d'avoir vite un résultat (si ce résultat a de l'intérêt on pourra continuer à faire tourner le système à la demande pour améliorer la précision, si elle nous intéresse toujours, mais on devra attendre plus longtemps et voir si ça vaut encore la peine d'en payer le prix !)
Ces algos probabilistes ne seront pas faits pour produire une "approximation" (avec une erreur qu'il est impossible de faire converger vers zéro sans changer l'algo et sans tout recommencer depuis le début en se payant dès le départ plus de ressources), mais apprendront d'eux mêmes comment tenir compte des erreurs commises et des résultats intermédiaires obtenus. Les réponses obtenues ne seront pas statiques, elles varieront au cours du temps sans diverger. Ces algos pourront aussi travailler en parallèle et utiliser des résultats "collectifs" (ce que fait notre cerveau avec ses collections de neurones qu'il mobilise plus ou moins mais qu'il peut allouer aussi à d'autres tâches pour pouvoir réagir aussi à d'autres stimulis extérieurs et changer les priorités, ou réagir à ses propres stimulis "induits" en interne, ce qu'on appelle nos émotions et qui sont largement acquises par l'expérience et l'apprentissage, comme l'est aussi notre propre "mémoire")