CATALOGUE Code & Data Formation Python Comprendre et déployer une IA locale avec Langchain et Ollama Guide complet : Installer et utiliser Ollama et Langchain en local pour l’IA générative

Guide complet : Installer et utiliser Ollama et Langchain en local pour l’IA générative

Ollama + Langchain : installation et test d’un modèle local
Vidéo non disponible ! Réessayez plus tard
Cette vidéo fait partie de la formation
Comprendre et déployer une IA locale avec Langchain et Ollama
Revoir le teaser Je m'abonne
Transcription

Cette leçon fait partie de la formation
49,00€ Ajouter au panier

Formation incluse dans l'abonnement Elephorm


DescriptionProgrammeAvis

Cette leçon fait partie de la formation
49,00€ Ajouter au panier

Formation incluse dans l'abonnement Elephorm


Acquérir une méthodologie pratique pour installer, paramétrer et exploiter des modèles d’IA générative localement ; comprendre l’usage combiné d’Ollama et Langchain pour créer et tester des workflows AI personnalisés.

Cette vidéo explique pas à pas comment installer Ollama et configurer Langchain afin de déployer vos propres modèles d’IA générative localement, tout en découvrant les principales commandes pour créer vos premiers workflows d’intelligence artificielle sur votre machine personnelle.

Dans cette leçon, vous apprendrez à exécuter un modèle d’intelligence artificielle en local sur votre ordinateur, en partant de l’installation d’Ollama, un gestionnaire de modèles LLM, jusqu’à l’usage avancé de Langchain. La vidéo détaille chaque étape nécessaire pour télécharger, installer et configurer Ollama, que ce soit sur Linux ou Windows, en abordant les spécificités des lignes de commande et les meilleures pratiques pour vérifier et mettre à jour les versions.

Vous découvrirez comment installer différents modèles (par exemple CodeQwen, Mistral, WizardLM) sur votre terminal, les lancer, et tester leur performance sur des cas concrets, comme l'installation de packages Python. L'accent est mis sur l’efficacité et la vitesse de traitement locale, mais aussi sur la gestion de modèles open source, non censurés, pour des expérimentations avancées dans des contextes adaptés.

Par la suite, la leçon introduit Langchain, en expliquant comment créer et activer un environnement Python dédié, procéder à l’installation de Langchain via pip, puis rédiger et exécuter des scripts Python pour orchestrer des chaînes, construire des prompts, réaliser des expériences de Retrieval-Augmented Generation (RAG) et explorer le fine-tuning. Les possibilités de personnalisation, le déploiement sur serveur local et l’intégration dans des interfaces web sont également abordées. La vidéo se conclut par la présentation d’exemples de scripts pour illustrer la puissance de l'écosystème, tout en valorisant l’autonomie et la flexibilité d’une IA exécutée localement.

Voir plus
Questions réponses
Quelles sont les étapes pour installer et utiliser le gestionnaire de modèles Ollama sur Linux ou Windows ?
Après téléchargement depuis Ollama.com, l'installation se réalise via ligne de commande adaptée au système d'exploitation (Linux ou Windows). L'utilisateur vérifie la version installée, peut mettre à jour si nécessaire et utilise des commandes telles que 'ollama pull' pour installer des modèles, ou 'ollama run' pour les exécuter et interagir avec eux localement.
Comment Langchain s’intègre-t-il avec Ollama pour la création de workflows IA ?
Langchain s’installe dans un environnement Python dédié. Il permet de connecter, orchestrer et utiliser les modèles Ollama via des scripts Python, facilitant la génération de prompts, la création de chaînes complexes (séquentielles, conditionnelles) et l’intégration de fonctionnalités avancées telles que le retrieval augmented generation, le tout exécuté localement sur la machine.
Quels sont les avantages d'utiliser des modèles non-censurés disponibles sur Ollama ?
Les modèles non-censurés, souvent entraînés sur des jeux de données ouverts, permettent une plus grande liberté dans les types de questions posées et les applications explorées, notamment pour la recherche, le prototypage rapide ou l'évaluation comparative. Cependant, leur utilisation requiert une vigilance éthique accrue.