🧠
Modèles IA de pointe
Une sélection experte de modèles IA pour chaque besoin
Libre Agent détecte automatiquement votre configuration matérielle et ne vous propose que les modèles compatibles avec votre RAM et VRAM disponibles. Vous ne verrez que les modèles qui peuvent fonctionner efficacement sur votre machine.
7 familles de modèles disponibles
1. GPT-OSS - Architecture MoE d'OpenAI
- GPT-OSS 20B : Premier modèle open-weight d'OpenAI avec architecture Mixture of Experts
- Points forts : Effort de raisonnement configurable (low/medium/high)
- Idéal pour : Workflows agentiques, génération et analyse de code, tâches de recherche complexes
2. Famille Qwen 3 - Polyvalence multilingue
- 6 modèles : De 0.6B à 32B de paramètres
- Points forts : 100+ langues, mode thinking natif, switching think/no-think, performance rapide
- Idéal pour : Conversations multilingues, traduction, raisonnement général
3. Famille Granite IBM - MoE hybride entreprise
- Points forts : Première architecture MoE hybride d'IBM, contexte massif de 1M tokens
- Idéal pour : Cas d'usage entreprise, documents longs, analyses complexes
- Optimisation : Versions GGUF avec calibration imatrix pour performance optimale
4. Famille Mistral - Efficacité prouvée
- Mistral 7B v0.3 : Modèle compact et polyvalent
- Mistral Small 3.1 (24B) : Performance état de l'art, contexte 128K
- Points forts : Excellente qualité, pas de censure, robustesse
- Idéal pour : Usage général, développement, tâches complexes
5. Famille Phi-4 - Spécialiste mathématique
- Modèles 15B : Les meilleurs pour les maths (81% AIME 2024)
- Points forts : Raisonnement transparent, code avec explications
- Idéal pour : Problèmes mathématiques, sciences, génération de code
- Limitation : Anglais uniquement
6. Famille DeepSeek R1 - Champion du raisonnement
- DeepSeek R1-0528 (8B) : Performance de raisonnement d'un 235B
- Points forts : 86% sur AIME 2024, contexte 131K
- Idéal pour : Mathématiques complexes, programmation, analyse scientifique
7. Famille Magistral - Raisonnement structuré
- Magistral Small 2506 (24B) : Raisonnement avec traces de pensée
- Points forts : Approche structurée, multilingue
- Idéal pour : Problèmes complexes nécessitant une réflexion approfondie
Sélection intelligente
- Les modèles affichés sont automatiquement filtrés selon votre matériel
- Plus vous avez de RAM/VRAM, plus vous aurez de choix disponibles
- Chaque modèle proposé est garanti de fonctionner sur votre configuration
Guide de sélection
- Si vous avez un GPU avec 16Go VRAM : GPT-OSS (function calling natif)
- Pour débuter : Qwen3-8B (équilibré, multilingue, rapide)
- Pour les maths : Phi-4 ou DeepSeek R1-0528
- Pour les performances maximales : Mistral Small 3.1 ou Qwen3-32B
- Pour le multilingue : Famille Qwen3 (100+ langues)
- Pour l'entreprise : Granite IBM (contexte 1M tokens)
- Budget limité : Qwen3-4B ou Mistral 7B