IREX - Déploiement de Langflow : Guide pas à pas

Langflow est une plateforme flexible dédiée à la création et au déploiement des agents IA, compatible avec les principaux LLM, bases vectorielles et de nombreux outils d’IA.

 · 3 min read

<strong>LANGFLOW : l’atelier visuel des intelligences connectées.</strong>


  1. Introduction

  2. Langflow est une interface graphique open-source qui permet de concevoir des agents LLM de manière visuelle, en s’appuyant sur le framework LangChain. Pour l’utiliser efficacement, il est important de le déployer sur une machine de développement, un serveur ou dans un environnement cloud.
    Ce guide vous accompagne dans les différentes étapes de déploiement de Langflow à l’aide de Docker, avec un script shell automatisé, puis propose des extensions futures vers Ansible, Jenkins ou AWX.


  3. Prérequis


  4. login tuleap

    Avant de commencer le déploiement, assurez-vous d’avoir : :
    + Une machine virtuelle (Linux) ou un serveur distant
    + git installé
    + docker et docker-compose installés
    + Accès à internet
    + Un terminal utilisateur avec des droits sudo ou Docker group configuré



  5. Clonage du dépot

  6. Depuis le terminal de votre machine virtuelle, il faut débuter par :

    + Clonage du dépôt Langflow : À travers la commande git clone https://github.com/langflow-ai/langflow.git
    + Accédez au répertoire : À travers la commande cd langflow/docker_example



  7. Déploiement manuel avec docker

  8. Pour exécuter Langflow avec Docker compose, Docker et Docker compose doivent être installés sur votre machine.
    Le fichier docker-compose utilise la balise latest ; il est recommandé d'extraire la dernière version des images avant de l'exécuter. À travers la commande : docker compose pull
    Pour démarrer les services Langflow, exécutez la commande suivante : docker compose up
    Après avoir exécuté la commande, vous pouvez accéder aux services Langflow à l'URL suivante : http://localhost:7860 ou remplacez localhost par l'adresse IP de votre serveur distant.
    Modifiez le fichier .env pour modifier le port ou d'autres configurations.


  9. Déploiement automatisé avec Docker

  10. Avant de commencer le déploiement, assurez-vous d’avoir :

    - Script Shell
    Objectif : Automatiser les commandes manuelles d’installation et de lancement de Langflow.
    Contenu attendu :
    • Installation des dépendances (Docker, Git, etc.)
    • Clonage du dépôt Langflow
    • Copie et configuration du fichier .env
    • Construction de l’image Docker
    • Lancement du conteneur Docker
    NB : Le script doit être idempotent (relançable sans provoquer d’erreur).

    - Automatisation avec Ansible

    Objectif : Industrialiser l’installation avec des playbooks et rôles Ansible.
    Étapes clés :
    • Création d’un rôle langflow
    • Variables pour personnaliser l’environnement (port, nom du conteneur…)

    - Intégration CI/CD avec Jenkins

    Objectif : Déclencher le déploiement automatiquement après un git push ou manuellement via un pipeline Jenkins.
    Livrable :
    • Un Jenkinsfile dans le repository

    - Déploiement avec AWX

    Usage : Déploiement graphique basé sur les rôles Ansible.
    Etapes Clés :
    • Importer le projet Git contenant les rôles
    • Créer un Job Template
    • Lancer depuis l’interface AWX avec inventaire + variables

    - Tests Post-déploiement

    • Vérification que le conteneur tourne (avec la commande : docker ps)
    • Accès à Langflow via navigateur (à travers http://IP:7860)
    • Log Docker (avec la commande : docker logs langflow-container)

  11. Intégration à un ERP (comme ERPNext)

  12. L’intégration de Langflow avec ERPNext vise à connecter des agents IA (via Langflow) aux processus métiers de l’ERP pour automatiser, assister ou enrichir l’expérience utilisateur.
    Les méthodes d'intégration possibles sont :

    a) En utilisant l'API REST entre ERPNext et Langflow


    b) Intégration par iframe dans un module ERPNext


  13. Conclusion

  14. Le déploiement de Langflow avec Docker permet de bénéficier rapidement de l’interface graphique sans configuration complexe. L'utilisation d’un script Shell rend ce déploiement répétable, tandis que les extensions avec Ansible, Jenkins ou AWX s’inscrivent dans une démarche DevOps complète. Une fois en place, Langflow devient un excellent outil pour prototyper visuellement vos agents LLM.

    Voir aussi :


DASSI MANDJO Léa Justine

Stagiaire à IREX.

No comments yet

No comments yet. Start a new discussion.

Add Comment