L’indépendance numérique a un coût : celui du silicium.
Vouloir faire tourner une IA générative (LLM) chez soi pour garantir la confidentialité de ses données est un objectif noble.
Mais attention : si vous lancez un modèle de 7 ou 13 milliards de paramètres sur un PC portable de bureautique, vous allez au devant de graves déconvenues.
Le calcul d’IA (Inférence) est une charge de travail constante à 100%, qui met à genoux les systèmes de refroidissement classiques.
Avant d’installer Ollama, voici l’analyse technique précise de ce qu’il vous faut, marque par marque.
Vouloir faire tourner une IA générative (LLM) chez soi pour garantir la confidentialité de ses données est un objectif noble.
Mais attention : si vous lancez un modèle de 7 ou 13 milliards de paramètres sur un PC portable de bureautique, vous allez au devant de graves déconvenues.
Le calcul d’IA (Inférence) est une charge de travail constante à 100%, qui met à genoux les systèmes de refroidissement classiques.
Avant d’installer Ollama, voici l’analyse technique précise de ce qu’il vous faut, marque par marque.
Le Mythe du PC Portable : Pourquoi ce n’est pas fait pour ça
C’est la première erreur que je vois. « J’ai un PC portable gamer, ça devrait aller ».
Non.
Voici pourquoi l’architecture mobile est inadaptée à l’IA locale 24/7 :
Non.
Voici pourquoi l’architecture mobile est inadaptée à l’IA locale 24/7 :
- La Dissipation Thermique (TDP) : Une requête IA sollicite le GPU (Carte graphique) et le CPU au maximum. Dans un châssis de 2cm d’épaisseur, la chaleur ne s’évacue pas. Résultat : le Thermal Throttling. Votre processeur baisse volontairement sa fréquence pour ne pas fondre. L’IA devient lente, et vous usez prématurément vos composants.
- La VRAM « Mensongère » : Une RTX 4060 de PC portable n’a rien à voir avec une RTX 4060 de bureau. Elle est bridée en électricité (Wattage) et partage souvent sa mémoire.
- L’absence d’évolutivité : Le jour où vous voulez tester un modèle plus gros (ex: Mixtral 8x7B), vous ne pouvez pas « rajouter » de la VRAM sur un portable. Sur une tour, vous changez la carte.
Mon conseil d’expert : Pour l’IA,
webmaster67
il faut une Tour (Desktop) bien ventilée. Point barre.
Team AMD (Les Rouges) : La puissance brute sous Linux
C’est mon choix personnel (RX 6900 XT). Longtemps en retrait, AMD est revenu dans la course grâce à ROCm (Radeon Open Compute), leur réponse à CUDA de Nvidia.
Le ticket d’entrée (Minimum viable) :
Le ticket d’entrée (Minimum viable) :
- Il vous faut impérativement une architecture RDNA 2 ou plus récente.
- Modèle Minimum : Radeon RX 6700 XT (12 Go). En dessous (8 Go), vous serez frustré par la taille des modèles.
- Le Confort : Radeon RX 6800 (16 Go) ou RX 7800 XT. Avec 16 Go de VRAM, vous faites tourner des modèles « Quantized » (compressés) de très haute qualité sans latence.
Sous Linux, c’est du bonheur : les drivers sont open-source et la gestion mémoire est excellente.
Team Intel (Les Bleus) : ARC et NPU, la surprise ?
Intel est dans une situation complexe.
- Les Processeurs (CPU) : Si vous n’avez pas de carte graphique dédiée, un processeur Intel Core i5/i7/i9 (même récent) sera très lent. L’IA va consommer toute votre RAM DDR4/DDR5 et monopoliser le système. À éviter pour de la production.
- Les Cartes Graphiques ARC (A750 / A770) : C’est la surprise. La A770 embarque 16 Go de VRAM pour un prix très bas. Elle fonctionne étonnamment bien pour l’IA, mais attention : les drivers sous Linux sont encore « jeunes » et demandent un noyau très récent (que j’utilise sur Ubuntu 24.04).
- Les NPU (Neural Processing Unit) : On les voit sur les derniers CPU « Ultra ». Pour l’instant, c’est du marketing pour flouter des arrière-plans sur Zoom. Ce n’est pas assez puissant pour faire tourner un assistant codeur local.
Le « Mur de la VRAM » : Comprendre la limite physique
Peu importe votre marque, la règle mathématique est immuable.
Le modèle d’IA doit « entrer » dans la mémoire vidéo (VRAM) de la carte graphique.
Le modèle d’IA doit « entrer » dans la mémoire vidéo (VRAM) de la carte graphique.
- Si le modèle pèse 10 Go et que votre carte a 8 Go de VRAM :
- Une partie déborde sur la RAM système (beaucoup plus lente).
- La vitesse de génération passe de 50 mots/seconde (instantané) à 2 mots/seconde (agonie).
C’est pour cela que je recommande toujours 12 Go de VRAM minimum pour commencer sérieusement,
et 16 Go à 24 Go pour les professionnels.
et 16 Go à 24 Go pour les professionnels.
Conclusion : Dimensionnez votre ambition
Ne lancez pas une IA locale sur votre ultrabook de travail, vous allez le tuer.
L’IA locale est une révolution de souveraineté, mais elle demande un matériel dédié, stable et refroidi.
Vous avez une tour et vous hésitez sur la carte graphique à acheter pour faire de l’IA ?
L’IA locale est une révolution de souveraineté, mais elle demande un matériel dédié, stable et refroidi.
Vous avez une tour et vous hésitez sur la carte graphique à acheter pour faire de l’IA ?
Je peux vous conseiller ou vous monter une station de travail ?
vous monter une station de travail « IA Ready » sous Linux, capable d’absorber la charge.
Et si le Premium vous tente voici le site web où un PC sur mesure sera parfaitement monter.
STRAFE PC par kang
STRAFE PC par kang



