Formation incluse dans l'abonnement Elephorm
Panorama des modèles LLM open source et critères de sélection
Objectifs
À l’issue de cette vidéo, vous serez capable de comprendre les différences entre les grandes familles de LLM open source, d’identifier les critères clés (taille, performances, licence, contexte), d’anticiper les contraintes techniques et juridiques, et de choisir le modèle adéquat en fonction de vos ressources matérielles et de vos besoins métiers.
Résumé
Dans cette vidéo, apprenez à sélectionner et héberger un modèle d'intelligence artificielle open source selon vos besoins spécifiques. Découvrez les avantages, les inconvénients, ainsi qu’un tour d’horizon des principales familles de LLM comme Mistral, Jama 3, Phi 3 ou DeepSeek, en évaluant leurs performances, tailles, contextes, et licences.
Description
Cette leçon présente de manière approfondie l’univers des modèles d’intelligence artificielle open source, en mettant l’accent sur les critères essentiels pour bien choisir et déployer son propre LLM (Large Language Model). En début de vidéo, le concept de modèle open source est analysé : il s’agit d’un vaste fichier numérique rendant public l’accès, la modification et l’utilisation, offrant une liberté totale par rapport aux solutions propriétaires.
L’intervenant expose les atouts majeurs des modèles open source : contrôle complet sur la confidentialité des données, indépendance des services tiers, décisions libres sur les mises à jour et la personnalisation. Néanmoins, il détaille aussi les contraintes techniques : nécessité de ressources matérielles suffisantes (mémoire, GPU/CPU), gestion de la sécurité et responsabilités légales concernant les usages et contenus générés.
Un panorama des modèles du marché est présenté : Mistral (latence faible, bonnes perfs code/texte, idéal assistants), Jama 3 (licence ouverte, dialogue robuste), Phi 3 (compact, usage CPU offline), WizardLM (non filtré, explorations libres et recherche), Quen 3 (géant, contexte large pour entreprises), et DeepSeek (contexte extensif, analyse massive, RAG). Les aspects de quantisation (compression pour moins de RAM), de mixture of experts (MOE), de latence et de performances selon le matériel sont détaillés pour guider l’utilisateur dans son choix.
La vidéo s’adresse à tous désireux d’implémenter un modèle IA open source performant, en donnant des conseils pour adapter son choix aux usages (prototypage, entreprise, cloud, GPU personnel) tout en respectant les contraintes de licences, de ressources et de sécurité.