L’Isep propose un nouveau stage de recherche : Conception d’un agent de raisonnement léger spécifique à un domaine
Informations générales
-
Contrat : stage – 6 mois maximum
-
Localisation : Issy-les-Moulineaux
- Date limite de candidature : 31 décembre 2025 à 23h59 (heure GMT+1)
Contexte et description
Les Large Language Models (LLMs) sont très performants pour la génération de texte et le raisonnement, mais une utilisation en une seule étape limite leur capacité à gérer un raisonnement multi-étapes sur de larges corpus techniques.
Les agents d’IA étendent les capacités des LLMs en leur permettant de planifier, de rechercher des informations et d’effectuer un raisonnement séquentiel. Combinés à la génération augmentée par récupération (Retrieval-Augmented Generation, RAG) [1], ces agents peuvent accéder à des documents externes (par exemple, des normes techniques ou des manuels) afin de produire des résultats éclairés et spécifiques à un domaine, sans que le modèle ait besoin de mémoriser l’ensemble des connaissances.
Ce stage porte sur la conception d’un agent d’IA léger exploitant :
- un modèle LoRA [2] pré-entraîné pour le raisonnement spécifique au domaine des télécommunications ;
- un cadre RAG [1] pour la récupération dynamique des documents pertinents ; tout en restant efficace sur des ressources de calcul limitées.
Missions
Les objectifs du stage incluent notamment :
- Intégrer le modèle LoRA pré-ajusté en tant que cœur de raisonnement.
- Mettre en œuvre un module de recherche (Qdrant e[3] ou FAISS [4]) pour accéder aux documents spécifiques au domaine des télécommunications.
- Utiliser un script de contrôle pour gérer le raisonnement, la planification, la récupération et la réflexion l[5].
- Procéder à l’évaluation des tâches de raisonnement multi-étapes.
- Explorer des approches de raisonnement itératif (type ReAct [6], Reflexion [7] ou boucles inspirées de LangChain [5]).
- Comparer les résultats des agents RAG multi-étapes à ceux des modèles à une seule étape.
- S’assurer que l’agent fonctionne efficacement sur un seul GPU ou CPU.
- Évaluer les compromis entre la taille de la récupération, le nombre d’étapes de raisonnement et la vitesse d’inférence.
Profil
Profil recherché :
- Étudiant(e) en Master dans les domaines de la Data Science, de l’Intelligence Artificielle ou disciplines connexes.
- Bonnes compétences en programmation Python.
- Connaissances de PyTorch, des LLM, du RAG et des métriques d’évaluation en NLP.
- Intérêt pour le raisonnement multi-étapes, la génération augmentée par récupération et les architectures d’agents IA.
- Excellentes capacités d’analyse et de résolution de problèmes.
- Bonnes aptitudes en communication et expérience du travail en équipe.
- Bon niveau d’anglais oral et écrit (le français est un atout, mais non obligatoire).
Contact
Ce stage a une durée minimale de cinq (5) mois, débutant en février/mars 2026.
Les candidatures seront examinées au fur et à mesure de leur réception ; les candidats sont donc encouragés à postuler le plus tôt possible.
Les candidats intéressés sont invités à envoyer un CV détaillé, une lettre de motivation d’une page, deux références académiques ainsi que le relevé de notes de M1 à l’adresse suivante : idowu.ajayi@isep.fr et wafa.njima@isep.fr.
Pour les candidatures, l’objet de votre courriel devra être : « Candidature pour le stage – Design of a Lightweight Domain-Specific Reasoning Agent ».
Date limite de candidature : 31 décembre 2025 à 23h59 (heure GMT+1).
Bibliographie
[1] P. Lewis et al., “Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks,” Apr. 12, 2021, arXiv: arXiv:2005.11401. doi: 10.48550/arXiv.2005.11401.
[2] E. J. Hu et al., “LoRA: Low-Rank Adaptation of Large Language Models,” Oct. 16, 2021, arXiv: arXiv:2106.09685. doi: 10.48550/arXiv.2106.09685.
[3] S. Ockerman et al., “Exploring Distributed Vector Databases Performance on HPC Platforms: A Study with Qdrant,” Sept. 15, 2025, arXiv: arXiv:2509.12384. doi: 10.48550/arXiv.2509.12384.
[4] J. Johnson, M. Douze, and H. Jégou, “Billion-Scale Similarity Search with GPUs,” IEEE Trans. Big Data, vol. 7, no. 3, pp. 535–547, July 2021, doi: 10.1109/TBDATA.2019.2921572.
[5] H. Chase, LangChain. (Oct. 2022). Python. Accessed: Oct. 16, 2025. [Online]. Available: https://github.com/langchain-ai/langchain
[6] S. Yao et al., “ReAct: Synergizing Reasoning and Acting in Language Models,” Mar. 10, 2023, arXiv: arXiv:2210.03629. doi: 10.48550/arXiv.2210.03629.
[7] N. Shinn, F. Cassano, E. Berman, A. Gopinath, K. Narasimhan, and S. Yao, “Reflexion: Language Agents with Verbal Reinforcement Learning,” Oct. 10, 2023, arXiv: arXiv:2303.11366. doi: 10.48550/arXiv.2303.11366.