Savoir si son ordinateur peut faire tourner une IA en local relève souvent du casse-tête. Heureusement, un nouvel outil gratuit scanne votre matériel et traduit tout ce jargon en un verdict très simple.

Depuis quelques mois, les outils pour faire tourner des modèles d’IA en local se multiplient, mais une question reste sans réponse pour la plupart des gens : que peut réellement encaisser leur machine ? Si le concept est déjà largement répandu pour le jeu vidéo, son équivalent pour les LLM a de quoi faire des heureux. Le site CanIRun.ai détecte votre matériel afin de vous indiquer quels modèles d’IA il est possible de faire tourner en local sur votre machine (PC, Mac, laptop), et avec quelles performances approximatives (VRAM utilisée, vitesse de génération, etc.).

Concrètement, il se présente comme un catalogue de modèles (Llama, Qwen, Gemma, Mistral, etc.) avec, pour chaque entrée, une indication claire de sa « compatibilité » avec votre machine, allant du très confortable au totalement hors de portée. L’idée est également de transformer des notions techniques assez intimidantes (VRAM, quantization, milliards de paramètres) en un verdict lisible pour un non‑spécialiste.

Un classement de l'outil. // Source : Capture d'écran Numerama
Un classement de l’outil. // Source : Capture d’écran Numerama

Comment utiliser CanIRun.ai (et avec quels modèles)

En pratique, l’interface affiche automatiquement un résumé de votre configuration, puis une liste de modèles annotés avec une sorte de bulletin de notes : ceux qui sont « confortables », ceux qui tournent mais sont « limites », et ceux qui sont « trop lourds » et qu’il vaut mieux oublier. Pour vous en servir, rien de plus simple :

  • Ouvrez CanIRun.ai dans un navigateur récent.
  • Laissez le site détecter votre configuration et vérifiez rapidement que les informations affichées (puce, mémoire, GPU) semblent cohérentes.
  • Parcourez la liste des modèles et repérez ceux qui sont classés dans les catégories les plus confortables, en fonction de votre usage (chat général, code, etc.).
  • Installez l’un de ces modèles via un outil comme Jan, Ollama ou LM Studio. Vous aurez ainsi un point de départ réaliste pour l’IA locale, sans transformer votre machine en radiateur.

CanIRun.ai ne couvre que des modèles « auto‑hébergeables », c’est‑à‑dire des modèles dont on peut télécharger les poids pour les faire tourner en local sur son propre GPU ou sa puce Apple Silicon. L’outil s’appuie sur un catalogue de modèles open‑source ou open‑weights populaires : TinyLlama et Llama 3.x, Gemma, Qwen, Mistral, Phi, DeepSeek, GPT‑OSS, etc. Cela va du tout petit modèle d’1 à 2 milliards de paramètres jusqu’aux très gros modèles de plus de 100 milliards de paramètres. Naturellement, il ne liste pas les grands modèles cloud purement propriétaires type ChatGPT, Claude ou Gemini dans leurs versions en ligne, puisqu’on ne peut pas les exécuter « en dur » sur un PC classique.

Comment fonctionne CanIRun.ai sur Mac

Dans notre cas, avec un MacBook Air de 2020 (puce M1 et 16 Go), le comportement de CanIRun.ai est assez cohérent — bien qu’il détecte une puce M1 Pro plutôt que M1. Lorsqu’il tombe sur une machine Apple Silicon — donc avec mémoire unifiée — l’outil lit la quantité totale de mémoire disponible et l’affiche comme si la machine disposait de 16 Go de VRAM. La case RAM est alors grisée avec une mention de mémoire unifiée : dans les faits, il ne s’agit pas de deux blocs séparés, mais bien du même pool de 16 Go partagé entre le CPU, le GPU et le reste du système.

CanIRun.ai sur un MacBook Air M1 16 Go // Source : Capture d'écran Numerama
CanIRun.ai sur un MacBook Air M1 16 Go

macOS et les autres applications consomment déjà plusieurs gigaoctets, ce qui réduit la marge disponible pour un modèle local. Il faut donc lire ces chiffres comme des ordres de grandeur plutôt que comme une promesse de performances, avec une conclusion simple pour un Mac M1 16 Go : les petits et moyens modèles peuvent passer, mais les plus gros finissent par souffrir nettement. Les créateurs insistent néanmoins sur un avantage propre à Apple Silicon : selon eux, un modèle peut utiliser jusqu’à environ 75 % de la mémoire totale, là où une carte graphique dédiée reste strictement limitée à sa VRAM. Dans leur exemple, un MacBook Pro de 36 Go peut ainsi héberger un modèle d’environ 27 Go quand un PC avec un GPU 8 Go est mécaniquement plafonné à ces 8 Go. CanIRun.ai en tient compte en traitant cette mémoire unifiée comme un bloc unique, mais plafonné à 75 % utilisables, peut-on lire sur cette page dédiée.

Comment fonctionne l’outil sur le plan technique ?

Sur le plan technique, dès que vous ouvrez le site, la page interroge de manière assez poussée ce que le navigateur accepte de dévoiler sur votre matériel. CanIRun.ai crée notamment un petit contexte graphique en tâche de fond pour récupérer le nom exact de votre GPU ou de votre puce Apple Silicon, puis recoupe cette information avec une base interne de cartes et de processeurs pour retrouver leurs caractéristiques réelles (quantité de mémoire, bande passante, architecture…).

En parallèle, il utilise les informations système exposées par le navigateur pour estimer la RAM et le nombre de cœurs du processeur, et effectue un court test de performance pour jauger la puissance monocœur. L’ensemble de ces données sert à reconstruire un profil matériel suffisamment précis pour savoir quels modèles peuvent entrer en mémoire et à quelle vitesse ils ont des chances de tourner, le tout directement dans le navigateur et sans envoyer ces mesures à un serveur. Pour affiner son verdict, l’outil tient également compte de la façon dont l’IA est compressée (par exemple en 4, 8 ou 16 bits, ce qu’on appelle la quantization). « Lorsque vous visitez le site, nous utilisons les API de votre navigateur pour détecter votre GPU, votre CPU et votre mémoire, puis nous calculons quels modèles d’IA peuvent s’exécuter sur votre matériel et à quelle vitesse. Aucune donnée n’est envoyée à un serveur. Tout est calculé côté client », peut-on lire sur le site.

Celui-ci n’est pas magique pour autant. La détection dépend de ce que le navigateur accepte d’exposer, et certains environnements peuvent masquer le nom de la carte graphique, conduisant à des estimations moins précises. C’est pour cela que les auteurs proposent, en complément, un mode où l’utilisateur peut renseigner manuellement sa configuration. De la même façon, les scores de compatibilité restent des estimations : ils donnent un ordre de grandeur fiable pour choisir un modèle ou réfléchir à un futur achat de GPU, mais ne remplacent pas un benchmark complet sur votre propre usage.

Découvrez les bonus

+ rapide, + pratique, + exclusif

Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.

Découvrez les nombreux avantages de Numerama+.

S'abonner à Numerama+

Vous avez lu 0 articles sur Numerama ce mois-ci

Il y a une bonne raison de ne pas s'abonner à

Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.

Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :

  • 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
  • 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
  • 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.

Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.

S'abonner à Numerama+
Toute l'actu tech en un clien d'oeil

Toute l'actu tech en un clin d'œil

Ajoutez Numerama à votre écran d'accueil et restez connectés au futur !


Pour ne rien manquer de l’actualité, suivez Numerama sur Google !