Formation incluse dans l'abonnement Elephorm
Installation, configuration et premiers workflows IA en local
Objectifs
Acquérir une méthodologie pratique pour installer, paramétrer et exploiter des modèles d’IA générative localement ; comprendre l’usage combiné d’Ollama et Langchain pour créer et tester des workflows AI personnalisés.
Résumé
Cette vidéo explique pas à pas comment installer Ollama et configurer Langchain afin de déployer vos propres modèles d’IA générative localement, tout en découvrant les principales commandes pour créer vos premiers workflows d’intelligence artificielle sur votre machine personnelle.
Description
Dans cette leçon, vous apprendrez à exécuter un modèle d’intelligence artificielle en local sur votre ordinateur, en partant de l’installation d’Ollama, un gestionnaire de modèles LLM, jusqu’à l’usage avancé de Langchain. La vidéo détaille chaque étape nécessaire pour télécharger, installer et configurer Ollama, que ce soit sur Linux ou Windows, en abordant les spécificités des lignes de commande et les meilleures pratiques pour vérifier et mettre à jour les versions.
Vous découvrirez comment installer différents modèles (par exemple CodeQwen, Mistral, WizardLM) sur votre terminal, les lancer, et tester leur performance sur des cas concrets, comme l'installation de packages Python. L'accent est mis sur l’efficacité et la vitesse de traitement locale, mais aussi sur la gestion de modèles open source, non censurés, pour des expérimentations avancées dans des contextes adaptés.
Par la suite, la leçon introduit Langchain, en expliquant comment créer et activer un environnement Python dédié, procéder à l’installation de Langchain via pip, puis rédiger et exécuter des scripts Python pour orchestrer des chaînes, construire des prompts, réaliser des expériences de Retrieval-Augmented Generation (RAG) et explorer le fine-tuning. Les possibilités de personnalisation, le déploiement sur serveur local et l’intégration dans des interfaces web sont également abordées. La vidéo se conclut par la présentation d’exemples de scripts pour illustrer la puissance de l'écosystème, tout en valorisant l’autonomie et la flexibilité d’une IA exécutée localement.