A la Direction de l’Innovation, nous menons des projets de recherche sur des champs d’expérimentation très larges et multi-sectoriels.
Ces projets innovants, développés en équipes, sont encadrés par nos experts au sein des ALTEN Labs (IDF, Toulouse, Grenoble, Rennes et Sophia Antipolis), et tentent de répondre aux enjeux de nos clients en leur fournissant des solutions technologiques originales et disruptives.
Au sein de notre Lab de Rennes, vous serez accompagné(e) par un Pilote Innovation (Chef de projet) pour vous permettre de développer vos compétences sur les activités d'un des projets suivants (plusieurs stages à pourvoir).
Projet : Extraction d'information via IA
L’objectif du projet est de concevoir, pour un service IA, des agents d'extraction d'information (documents, données brutes, web) sur des tâches à réaliser :
Projet : Exploration de la programmation en langage naturel vers un langage exécutable
ALTEN souhaite disposer d’une plate-forme expérimentale donnant les moyens de montrer à ses clients de nouvelles approches en matière d’écriture et d’exécution de scénarios en langage naturel (NLP).
Nous avons déjà défini l’approche à travers deux cas d’usage basiques. Aujourd’hui nous voulons aller plus loin dans le passage de scripts en langage naturel vers leur équivalent en langage exécutable à travers une thèse qui a démarré. L'objectif est d'accompagner cette thèse dans les expérimentations ainsi que dans l'outillage nécessaire (intégration de modèle IA, intégration des utilisateurs, évaluation des résultats...).
Missions confiées :
Projet : Illustrateur d'un assistant vocal s'appuyant sur les LLM dans un environnement multi-agents
Les assistants vocaux apparus depuis les années 90 se sont développés et ont pu s'améliorer avec les techniques d'Intelligence Artificielle (IA). Aujourd'hui les LLM (Intelligences Artificielles Génératives) permettent une utilisation de ces assistants de manière plus naturelle, intuitive et personnalisée à l'utilisateur. Dans ce contexte, nous avons développé une solution permettant d'interagir avec différents agents (robot, logiciel métier,…) dans un environnement multi-agents évolutif.
Ces systèmes permettent non seulement de reconnaitre des commandes, mais aussi de générer des scripts plus complexes à partir de ces commandes primitives. Par exemple : "drone suis moi" s'interprète de la manière suivante :
1. Allumer la caméra
2. Détecter ma position
3. Avancer jusqu'à ma position
4. Boucler tant qu'il n'y a pas de contre-indication
Missions confiées :