Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Vous trouvez les cyberattaques dangereuses ? Attendez que les pirates utilisent l'intelligence artificielle

Une équipe de chercheurs en cyber prédit l'arrivée de malware basés sur l'intelligence artificielle d'ici 2028. S'il est trop complexe de les développer pour l'instant, ces programmes risquent de piéger plus efficacement les victimes et d'étendre les attaques à une échelle plus importante. 

L'intelligence artificielle est utilisée pour détecter des menaces de cybersécurité. Ce n'est qu'une question de temps avant qu'elle ne soit aussi utilisée au service des pirates. Dans cinq ans environ, on devrait assister aux premières attaques du genre, prédisent les chercheurs en cyber de WithSecure, en partenariat avec l'Agence finlandaise, dans un rapport publié ce 14 décembre. 

Actuellement, les pirates utilisent des failles connues dans les interfaces pour piéger leur victime et déposer leur malwareL'intelligence artificielle demande des ressources pour être développée, et donc des spécialistes capable de les programmer. Pour l'instant, les ransomwares sont assez efficaces et rapportent des millions aux pirates, mais les solutions de cybersécurité se multiplient aussi, et les secteurs les plus sensibles — avec les données les plus intéressantes — investissent dans leur protection. 

Dans ce jeu du chat et de la souris, les intelligences artificielles seront un coup de pouce conséquent pour les hackersPuisque l'IA fonctionne à partir d'une base de données, les développeurs devront programmer le logiciel pour qu'il trouve une solution dans divers scénarios.

Les nombreux dangers de l'IA

Les chercheurs de WithSecure et de l'agence finlandaise ont listé tous les avantages d'un malware basé sur l'IA :

Un mail rédigé par chatGPT pouvant être utilisé comme du phishing pour usurper le service RH d'une entreprise. // Source : Numerama

Dans de nombreux cas, l'IA pourra aider le hacker à piéger la victime, sans forcément rentrer dans le système. Les deep fake ainsi que le vishing — l'hameçonnage par la voix au téléphone — sont déjà des méthodes utilisées et sont amenées à se développer à l'avenir. Quelles que soient les avancées technologiques, les humains finissent toujours par y trouver un usage malveillant.