CATALOGUE Code & Data Formation Python Comprendre et déployer une IA locale avec Langchain et Ollama Choisir et héberger un modèle IA open source : enjeux, familles et pratiques

Choisir et héberger un modèle IA open source : enjeux, familles et pratiques

Modèles open source compatibles (Mistral, Llama 3, Phi)
Vidéo non disponible ! Réessayez plus tard
Cette vidéo fait partie de la formation
Comprendre et déployer une IA locale avec Langchain et Ollama
Revoir le teaser Je m'abonne
Transcription

Cette leçon fait partie de la formation
49,00€ Ajouter au panier

Formation incluse dans l'abonnement Elephorm


DescriptionProgrammeAvis

Cette leçon fait partie de la formation
49,00€ Ajouter au panier

Formation incluse dans l'abonnement Elephorm


À l’issue de cette vidéo, vous serez capable de comprendre les différences entre les grandes familles de LLM open source, d’identifier les critères clés (taille, performances, licence, contexte), d’anticiper les contraintes techniques et juridiques, et de choisir le modèle adéquat en fonction de vos ressources matérielles et de vos besoins métiers.

Dans cette vidéo, apprenez à sélectionner et héberger un modèle d'intelligence artificielle open source selon vos besoins spécifiques. Découvrez les avantages, les inconvénients, ainsi qu’un tour d’horizon des principales familles de LLM comme Mistral, Jama 3, Phi 3 ou DeepSeek, en évaluant leurs performances, tailles, contextes, et licences.

Cette leçon présente de manière approfondie l’univers des modèles d’intelligence artificielle open source, en mettant l’accent sur les critères essentiels pour bien choisir et déployer son propre LLM (Large Language Model). En début de vidéo, le concept de modèle open source est analysé : il s’agit d’un vaste fichier numérique rendant public l’accès, la modification et l’utilisation, offrant une liberté totale par rapport aux solutions propriétaires.

L’intervenant expose les atouts majeurs des modèles open source : contrôle complet sur la confidentialité des données, indépendance des services tiers, décisions libres sur les mises à jour et la personnalisation. Néanmoins, il détaille aussi les contraintes techniques : nécessité de ressources matérielles suffisantes (mémoire, GPU/CPU), gestion de la sécurité et responsabilités légales concernant les usages et contenus générés.

Un panorama des modèles du marché est présenté : Mistral (latence faible, bonnes perfs code/texte, idéal assistants), Jama 3 (licence ouverte, dialogue robuste), Phi 3 (compact, usage CPU offline), WizardLM (non filtré, explorations libres et recherche), Quen 3 (géant, contexte large pour entreprises), et DeepSeek (contexte extensif, analyse massive, RAG). Les aspects de quantisation (compression pour moins de RAM), de mixture of experts (MOE), de latence et de performances selon le matériel sont détaillés pour guider l’utilisateur dans son choix.

La vidéo s’adresse à tous désireux d’implémenter un modèle IA open source performant, en donnant des conseils pour adapter son choix aux usages (prototypage, entreprise, cloud, GPU personnel) tout en respectant les contraintes de licences, de ressources et de sécurité.

Voir plus
Questions réponses
Quels sont les avantages principaux à utiliser un modèle d’IA open source ?
Un modèle open source offre la liberté totale de contrôle sur la confidentialité, l'adaptabilité et la gestion des mises à jour, sans dépendance aux prestations payantes ou à des restrictions d’usage imposées par une API extérieure.
Quels sont les principaux critères pour choisir un LLM adapté à son projet ?
Le choix dépend de la taille du modèle et de la RAM disponible, du contexte maximal pris en charge, de la performance, de la latence, de la politique de licence et des exigences de filtre ou de censure selon l’application finale.
En quoi consiste la quantisation dans l’optimisation des modèles IA ?
La quantisation consiste à réduire le nombre de bits utilisés pour stocker chaque poids du modèle, ce qui permet d’exécuter un modèle plus volumineux sur une infrastructure limitée en mémoire, au prix d’une perte minimale de précision.