Notre équipe d’admission est à votre écoute au 01 49 54 52 00

Chercher

L’Isep propose un nouveau stage de recherche : Conception d’un agent de raisonnement léger spécifique à un domaine

Informations générales

  • Contrat : stage – 6 mois maximum

  • Localisation : Issy-les-Moulineaux 

  • Date limite de candidature : 31 décembre 2025 à 23h59 (heure GMT+1)

Contexte et description

Les Large Language Models (LLMs) sont très performants pour la génération de texte et le raisonnement, mais une utilisation en une seule étape limite leur capacité à gérer un raisonnement multi-étapes sur de larges corpus techniques.

Les agents d’IA étendent les capacités des LLMs en leur permettant de planifier, de rechercher des informations et d’effectuer un raisonnement séquentiel. Combinés à la génération augmentée par récupération (Retrieval-Augmented Generation, RAG) [1], ces agents peuvent accéder à des documents externes (par exemple, des normes techniques ou des manuels) afin de produire des résultats éclairés et spécifiques à un domaine, sans que le modèle ait besoin de mémoriser l’ensemble des connaissances.

Ce stage porte sur la conception d’un agent d’IA léger exploitant :

  • un modèle LoRA [2] pré-entraîné pour le raisonnement spécifique au domaine des télécommunications ;
  • un cadre RAG [1] pour la récupération dynamique des documents pertinents ; tout en restant efficace sur des ressources de calcul limitées.

Missions

Les objectifs du stage incluent notamment :

  • Intégrer le modèle LoRA pré-ajusté en tant que cœur de raisonnement.
  • Mettre en œuvre un module de recherche (Qdrant e[3] ou FAISS [4]) pour accéder aux documents spécifiques au domaine des télécommunications.
  • Utiliser un script de contrôle pour gérer le raisonnement, la planification, la récupération et la réflexion l[5].
  • Procéder à l’évaluation des tâches de raisonnement multi-étapes.
  • Explorer des approches de raisonnement itératif (type ReAct [6], Reflexion [7] ou boucles inspirées de LangChain [5]).
  • Comparer les résultats des agents RAG multi-étapes à ceux des modèles à une seule étape.
  • S’assurer que l’agent fonctionne efficacement sur un seul GPU ou CPU.
  • Évaluer les compromis entre la taille de la récupération, le nombre d’étapes de raisonnement et la vitesse d’inférence.

Profil

Profil recherché :

  • Étudiant(e) en Master dans les domaines de la Data Science, de l’Intelligence Artificielle ou disciplines connexes.
  • Bonnes compétences en programmation Python.
  • Connaissances de PyTorch, des LLM, du RAG et des métriques d’évaluation en NLP.
  • Intérêt pour le raisonnement multi-étapes, la génération augmentée par récupération et les architectures d’agents IA.
  • Excellentes capacités d’analyse et de résolution de problèmes.
  • Bonnes aptitudes en communication et expérience du travail en équipe.
  • Bon niveau d’anglais oral et écrit (le français est un atout, mais non obligatoire).

Contact 

Ce stage a une durée minimale de cinq (5) mois, débutant en février/mars 2026.

Les candidatures seront examinées au fur et à mesure de leur réception ; les candidats sont donc encouragés à postuler le plus tôt possible.

Les candidats intéressés sont invités à envoyer un CV détaillé, une lettre de motivation d’une page, deux références académiques ainsi que le relevé de notes de M1 à l’adresse suivante : idowu.ajayi@isep.fr et wafa.njima@isep.fr.

Pour les candidatures, l’objet de votre courriel devra être : « Candidature pour le stage – Design of a Lightweight Domain-Specific Reasoning Agent ».

Date limite de candidature : 31 décembre 2025 à 23h59 (heure GMT+1). 

Bibliographie

[1] P. Lewis et al., “Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks,” Apr. 12, 2021, arXiv: arXiv:2005.11401. doi: 10.48550/arXiv.2005.11401.

[2] E. J. Hu et al., “LoRA: Low-Rank Adaptation of Large Language Models,” Oct. 16, 2021, arXiv: arXiv:2106.09685. doi: 10.48550/arXiv.2106.09685.

[3] S. Ockerman et al., “Exploring Distributed Vector Databases Performance on HPC Platforms: A Study with Qdrant,” Sept. 15, 2025, arXiv: arXiv:2509.12384. doi: 10.48550/arXiv.2509.12384.

[4] J. Johnson, M. Douze, and H. Jégou, “Billion-Scale Similarity Search with GPUs,” IEEE Trans. Big Data, vol. 7, no. 3, pp. 535–547, July 2021, doi: 10.1109/TBDATA.2019.2921572.

[5] H. Chase, LangChain. (Oct. 2022). Python. Accessed: Oct. 16, 2025. [Online]. Available: https://github.com/langchain-ai/langchain

[6] S. Yao et al., “ReAct: Synergizing Reasoning and Acting in Language Models,” Mar. 10, 2023, arXiv: arXiv:2210.03629. doi: 10.48550/arXiv.2210.03629.

[7] N. Shinn, F. Cassano, E. Berman, A. Gopinath, K. Narasimhan, and S. Yao, “Reflexion: Language Agents with Verbal Reinforcement Learning,” Oct. 10, 2023, arXiv: arXiv:2303.11366. doi: 10.48550/arXiv.2303.11366.