Une équipe de chercheurs en cyber prédit l’arrivée de malware basés sur l’intelligence artificielle d’ici 2028. S’il est trop complexe de les développer pour l’instant, ces programmes risquent de piéger plus efficacement les victimes et d’étendre les attaques à une échelle plus importante.

L’intelligence artificielle est utilisée pour détecter des menaces de cybersécurité. Ce n’est qu’une question de temps avant qu’elle ne soit aussi utilisée au service des pirates. Dans cinq ans environ, on devrait assister aux premières attaques du genre, prédisent les chercheurs en cyber de WithSecure, en partenariat avec l’Agence finlandaise, dans un rapport publié ce 14 décembre.

Actuellement, les pirates utilisent des failles connues dans les interfaces pour piéger leur victime et déposer leur malware. L’intelligence artificielle demande des ressources pour être développée, et donc des spécialistes capable de les programmer. Pour l’instant, les ransomwares sont assez efficaces et rapportent des millions aux pirates, mais les solutions de cybersécurité se multiplient aussi, et les secteurs les plus sensibles — avec les données les plus intéressantes — investissent dans leur protection.

Dans ce jeu du chat et de la souris, les intelligences artificielles seront un coup de pouce conséquent pour les hackers. Puisque l’IA fonctionne à partir d’une base de données, les développeurs devront programmer le logiciel pour qu’il trouve une solution dans divers scénarios.

Les nombreux dangers de l’IA

Les chercheurs de WithSecure et de l’agence finlandaise ont listé tous les avantages d’un malware basé sur l’IA :

  • La rapidité d’exécution : l’IA peut être utilisée pour automatiser des tâches qui sont aujourd’hui effectuées manuellement, comme l’extraction d’informations ou la découverte de vulnérabilités dans les logiciels. Ces missions peuvent être exécutées sur une machine à un rythme beaucoup plus rapide.
  • Une meilleure préparation : les cyberattaques fondées sur l’IA peuvent analyser et raisonner sur de plus grandes quantités de données, et donc explorer davantage de potentielles vulnérabilités. Alors qu’un humain peut rater des informations, le programme peut optimiser la recherche et ne négliger aucune piste.
  • Une infiltration sophistiquée : le phishing ciblé peut être personnalisé en fonction des victimes, s’adapter aux comportements et se fondre aux usages du système. Elles pourront également s’ajuster à différentes interfaces et apprendre pendent leur infiltration. Si la première attaque n’est pas la bonne, la seconde sera plus efficace.
Un mail de phishing usurpant le service RH d'une entreprise. // Source : Numerama
Un mail rédigé par chatGPT pouvant être utilisé comme du phishing pour usurper le service RH d’une entreprise. // Source : Numerama
  • Une attaque plus étendue : un pirate pourra lancer des opérations automatisées contre de nombreuses cibles simultanément. L’attaque sera tout de suite propulsée à plus grande échelle avec de nombreuses personnalisations et des cibles différentes.

Dans de nombreux cas, l’IA pourra aider le hacker à piéger la victime, sans forcément rentrer dans le système. Les deep fake ainsi que le vishing — l’hameçonnage par la voix au téléphone — sont déjà des méthodes utilisées et sont amenées à se développer à l’avenir. Quelles que soient les avancées technologiques, les humains finissent toujours par y trouver un usage malveillant.


Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !