À propos de Mila
Fondé par le professeur Yoshua Bengio de l'Université de Montréal, Mila rassemble des chercheurs spécialisés en intelligence artificielle et plus précisément en apprentissage automatique, apprentissage profond et apprentissage par renforcement. Reconnu mondialement pour ses importantes contributions au domaine de l'apprentissage profond, Mila s'est particulièrement distingué dans la modélisation du langage, la traduction automatique, la reconnaissance d'objets et les modèles génératifs. Depuis 2017, Mila est le fruit d'une collaboration entre l'Université de Montréal et l'Université McGill, en lien étroit avec Polytechnique Montréal et HEC Montréal.
Mila s'est donné pour mission d'être un pôle mondial d'avancées scientifiques qui inspire l'innovation et l'essor de l'intelligence artificielle (IA) au bénéfice de tous.
Pour en connaitre davantage, veuillez consulter https://mila.quebec/
Description du poste
L'équipe Développement d'applications IA (DAI) conçoit et bâtit des applications alimentées par l'IA générative et l'apprentissage automatique. Nous travaillons étroitement avec les Studios, l'AMLRT et les équipes internes pour transformer des modèles, prototypes et idées en produits fonctionnels et démonstrations interactives.
En tant que développeur.se principal.e, vous serez affecté.e au Studio Sécurité de l'IA, où vous contribuerez à la conception et au développement d'une plateforme d'évaluation open source mesurant la sécurité et la robustesse comportementale des agents IA. La plateforme évalue les agents en boîte noire en les soumettant à des scénarios adversariaux et en mesurant objectivement leur résistance. La feuille de route couvre l'évaluation de la résistance aux injections conversationnelles, la sécurité des appels d'outils, l'application de politiques de capacité, et la sécurité des systèmes multi-agents. Vous porterez la vision technique de cette plateforme de sa première livraison jusqu'à sa maturité.
Ce rôle exige un profil qui combine architecture de sécurité et développement logiciel solide. Vous devrez raisonner sur des modèles de menace, des surfaces d'attaque et des frontières de confiance à chaque étape du projet — d'abord pour construire des outils d'évaluation (harnais CLI, moteurs de scoring, DSL de scénarios), puis pour concevoir de l'infrastructure d'application de politiques (proxys, passerelles d'appels d'outils), et éventuellement pour modéliser la sécurité dans des architectures multi-agents. Vous travaillerez en étroite collaboration avec des chercheur.se.s en évaluation adversariale.
Vous accompagnerez les développeurs plus juniors et contribuerez à structurer un écosystème technique durable. À terme, vous pourrez également contribuer aux autres projets de l'équipe DAI (applications IA, plateformes, outils internes).
Ce rôle s'adresse à quelqu'un qui souhaite exercer une influence technique sur un projet stratégique à la croisée de la conception logiciel et de la sécurité de l'IA, et évoluer dans un environnement mêlant backend, sécurité, IA appliquée, et outillage développeur.
Responsabilités principales
- Concevoir et développer une plateforme d'évaluation de la sécurité des agents IA : CLI, adaptateurs d'agents (HTTP et Python), moteur d'exécution, moteur de scoring, parseur de DSL, et génération de rapports d'audit.
- Implémenter et faire évoluer le moteur de scoring : vérifications déterministes (sous-chaînes, regex), vérifications par embeddings (similarité sémantique), intégration structurée de LLM-as-judge, et scoring des appels d'outils (détection d'exfiltration, analyse de chaînes d'appels).
- Concevoir l'architecture des schémas de données (run records, scénarios, politiques) pour assurer la reproductibilité, le versionnement et l'auditabilité des évaluations.
- Raisonner sur les modèles de menace et les surfaces d'attaque des agents IA pour orienter les décisions d'architecture et collaborer efficacement avec des chercheur.se.s en évaluation adversariale.
- Concevoir et développer l'infrastructure d'application de politiques de sécurité (proxys d'appels d'outils, passerelles de contrôle d'accès) au fur et à mesure de la maturité de la plateforme.
- Contribuer à la fiabilité, la performance et la sécurité des systèmes déployés.
- Encadrer les bonnes pratiques de développement logiciel (tests, CI/CD, architecture, documentation).
- Participer activement aux revues de code, aux choix technologiques et à l'amélioration de la qualité.
- Encadrer, conseiller et accompagner les développeurs moins expérimentés.
- Collaborer avec chercheurs, ingénieurs, designers et gestionnaires de projet.
- Documenter les architectures, décisions techniques et modules partagés.
- Assurer une veille active sur la sécurité de l'IA, les techniques adversariales émergentes, et les architectures d'agents.
Requirements
Compétences essentielles
- Bac ou Maîtrise en informatique, génie logiciel, cybersécurité, ou domaine connexe.
- Minimum de 5 à 7 ans d'expérience en développement logiciel, dont expérience significative en Python.
- Expérience substantielle en sécurité informatique : évaluation de vulnérabilités, sécurité applicative, red teaming, conception de systèmes sécuritaires, ou développement d'outils de sécurité. On cherche quelqu'un capable de raisonner sur des modèles de menace et des surfaces d'attaque, pas seulement d'implémenter des vérifications.
- Solides compétences en architecture logicielle, conception d'outils et de librairies, et bonnes pratiques (tests, CI/CD, performance).
- Expérience avec les architectures d'agents IA : compréhension du fonctionnement des agents en production (system prompts, appels d'outils, orchestration, systèmes multi-agents).
- Capacité à naviguer en environnement multidisciplinaire et à mener des initiatives techniques.
- Maîtrise du français et de l'anglais.
Compétences qui vous démarqueront:
- Expérience en évaluation ou benchmarking de sécurité de systèmes d'IA (robustesse adversariale, red teaming de LLM, injection de prompts).
- Expérience dans la conception d'outils développeur : CLI, librairies Python, DSL, parseurs, moteurs de règles, ou frameworks de test.
- Expérience en développement open source ou contribution à des outils de sécurité (garak, Semgrep, OWASP, etc.).
- Expérience avec la conception de proxys, middleware, ou passerelles d'application de politiques.
- Expertise en orchestration cloud (GCP, Azure), environnements containerisés (Docker, Kubernetes), et systèmes distribués.
- Familiarité avec les intégrations de LLM (OpenAI, Anthropic), embeddings textuels, et mesures de similarité sémantique.
- Expérience en FastAPI, bases de données vectorielles (Qdrant, Milvus, Weaviate), ou développement frontend (React, Next.js) — utile pour les rotations vers d'autres projets DAI.
- Expérience en observabilité, monitoring, métriques, et optimisation de systèmes.
Benefits
De bonnes raisons pour travailler à Mila
- L'occasion de contribuer à une mission unique avec un impact important;
- Un programme d'assurance collective complet (maladie, dentaire, invalidité, vie, assurance voyage et garanties complémentaires);
- Un programme d'aide aux employés et à la famille;
- Un accès à un service de télémédecine;
- Une politique de congés annuels offrant une base de 20 jours de vacances dès l'embauche;
- Un régime d'épargne retraite avec contribution de l'employeur minimale de 4%;
- Une généreuse enveloppe flexible vous permettant de personnaliser vos avantages sociaux en fonction de ce qui contribue à votre bien-être. Vous pouvez sélectionner et combiner les options qui correspondent à vos besoins parmi les crédits style de vie, une assurance bonifiée, des journées de vacances supplémentaires et une contribution enrichie au régime de retraite;
- Un horaire flexible, un horaire d'été et une possibilité de télétravail;
- Un milieu de travail au cœur de la Petite Italie, dans le quartier branché Mile-Ex, à proximité des transports en commun;
- Une équipe d'experts de leur domaine, des gens passionnés et passionnants;
- Une ambiance de travail collaborative et inclusive.
Nous voulons vous connaître
À Mila, la diversité nous tient à cœur. Nous valorisons un environnement de travail équitable, ouvert et respectueux des différences. Nous encourageons toute personne souhaitant œuvrer dans un écosystème en progression continue et stimulée à contribuer à l'application et la définition d'une culture saine et inclusive, à postuler.
Veuillez noter que seules les personnes sélectionnées seront contactées.
https://mila.quebec/fr/protection-de-la-vie-privee
Senior AI Applications Developer - Safety
About Mila
Founded by Professor Yoshua Bengio of the Université de Montréal, Mila brings together researchers specializing in artificial intelligence, and more specifically in machine learning, deep learning and reinforcement learning. Recognized worldwide for its important contributions to the field of deep learning, Mila has particularly distinguished itself in language modeling, machine translation, object recognition and generative models. Since 2017, Mila has been the fruit of a collaboration between Université de Montréal and McGill University, with close links to Polytechn