L’Isep propose un nouveau stage de recherche : Association modèles logiques et modèles LLM
Logic meets Large Language Models
Informations générales
-
Contrat : stage – 6 mois maximum
-
Localisation : Issy-les-Moulineaux
- Date limite de candidature : 31 décembre 2025 à 23h59 (heure GMT+1)
Contexte et description
Les LLM constituent le noyau de base des outils d’intelligence artificielle générative tels que les GPT. Le succès des outils basés sur les GPT montre l’efficacité de ces modèles en termes de productivité. Mais les LLM sont difficiles à interpréter et souvent peu fiables [Gangemi et al. 2025].
L’hallucination dans les grands modèles de langage reste l’un des principaux inconvénients de ces outils d’intelligence artificielle. Elle consiste à générer des faits et des réalités fabriqués ou inexacts sur la base de connaissances réelles. Les modèles logiques peuvent aider à détecter et à corriger de tels faits erronés [Galitsky 2025].
En outre, les modèles logiques tels que les graphes sémantiques souffrent du manque d’évolutivité, de flexibilité, de compréhension contextuelle et de traitement des informations non structurées ou ambiguës [Gangemi et al. 2025, Sequada et al. 2025].
Par conséquent, les LLM peuvent être d’une aide précieuse pour les modèles logiques pour alimenter leurs bases de connaissances et les modèles logiques peuvent fournir aux LLM le mécanisme de raisonnement dont ils ont besoin pour augmenter leur fiabilité [Prade 2024]. Comme indiqué dans [Sun et al. 2024], le raisonnement basé sur le LLM rencontre aussi les défis suivants : (1) Adaptabilité limitée des structures prédéfinies à diverses tâches ; (2) Précision insuffisante dans l’exploitation des connaissances connues pour en dériver de nouvelles ; et (3) Prise en compte inadéquate de l’historique des expériences de raisonnement pour les étapes de raisonnement ultérieures.
Missions
Dans ce stage, nous explorons les diverses solutions proposées dans la littérature pour la combinaison des modèles logiques avec les modèles LLM et identifions leurs domaines d’application.
La deuxième étape consiste à sélectionner un cas d’utilisation lié aux hallucinations dans les LLM et à adapter un modèle logique donné pour résoudre le problème.
Le candidat doit faire preuve d’un grand intérêt pour les mathématiques appliquées et avoir de bonnes compétences en programmation de modèles d’IA.
Profil
- Diplôme de master 1 ou équivalent en mathématiques appliquées ou en informatique,
- Expertise en matière de représentation des connaissances et d’ingénierie des données,
- Bonnes compétences en programmation de modèles d’intelligence artificielle.
Contact
Par courriel à Nouredine TAMANI (nouredine.tamani@isep.fr) en envoyant un CV, une lettre de motivation et le relevé de notes du M1. Pour les candidatures, l’objet de votre courriel devra être : Candidature pour le stage – Association modèles logiques et modèles LLM Logic meets Large Language Models ».
Date limite de candidature : 31 décembre 2025 à 23h59 (heure GMT+1).
Bibliographie
-
[Prade 2024] Henri Prade. L’IA symbolique et le dépassement de la logique classique. Revue Ouverte d’Intelligence Artificielle, Hommage à Alain Colmerauer, Volume 5 (2024) no. 2-3, pp. 161-176. doi : 10.5802/roia.77. https://roia.centre-mersenne.org/articles/10.5802/roia.77/
-
[Galitsky 2025] B. Galitsky, “8 – truth-o-meter: Collaborating with llm in fighting its hallucinations,” in Interdependent Human-Machine Teams, W. Lawless, R. Mittu, D. Sofge, and H. Fouad, Eds. Academic Press, 2025, pp. 175–210. [Online]. Available: https://www.sciencedirect.com/science/article/pii/B9780443292460000043
-
[Gangemi et al. 2025] A. Gangemi and A. G. Nuzzolese, “Logic augmented generation,” Journal of Web Semantics, vol. 85, p. 100859, 2025. [Online]. Available: https://www.sciencedirect.com/science/article/pii/S1570826824000453
-
[Sequeda et al. 2025] J. Sequeda, D. Allemang, and B. Jacob, “Knowledge graphs as a source of trust for llm-powered enterprise question answering,” Journal of Web Semantics, p. 100858, 2025. [Online]. Available: https://www.sciencedirect.com/science/article/pii/S1570826824000441
-
[Sun et al. 2024] H. Sun, W. Xu, W. Liu, J. Luan, B. Wang, S. Shang, J.-R. Wen, and R. Yan, “DetermLR: Augmenting LLM-based logical reasoning from indeterminacy to determinacy,” in Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), L.-W. Ku, A. Martins, and V. Srikumar, Eds. Bangkok, Thailand: Association for Computational Linguistics, Aug. 2024, pp. 9828–9862. [Online]. Available: https://aclanthology.org/2024.acl-long.531/