Location:
Saint-Laurent, Quebec, CanadaJob ID:
R0116509Date Posted:
2026-01-19Company Name:
HITACHI ENERGY CANADA INC.Profession (Job Category):
Administration & FacilitiesJob Schedule:Â
Full timeRemote:
NoJob Description:
French version follows
The Opportunity
Hitachi Energy is seeking a highly motivated Research Intern to contribute to the design and evaluation of explainability and governance-aligned reporting frameworks for machine learning models used in power grid applications. The hired intern will work under the supervision of Research Scientist(s) in the Hitachi Energy Research center. This position will be held in a hybrid-format or remotely within Canada.
Duration of internship: 4 months (can be extended up to 6 months as per need)
Start date: May 4, 2026 (flexible)
Mode of work: Hybrid
Renumerated Internship
How youâll make an impact
Conduct literature reviews and comparative evaluations on ML explainability and trust-building techniques.
Investigate frameworks for model transparency, reproducibility, and traceability.
Explore and evaluate explainability methods (e.g., SHAP, LIME, surrogate models) and their applicability to industrial ML workflows.
Prototype research concepts using Python and modern ML tooling.
Document findings and present them in technical reports or publications, as appropriate.
Your background
PhD students/candidates in Computer Science/Engineering, Machine Learning, Software/Electrical Engineering.
Excellent senior masterâs (thesis-based) students with relevant experience are also welcome to apply.
Solid understanding of machine learning & software engineering concepts, model evaluation, validation pipeline and CI/CD is required.
Familiarity with interpretability techniques and/or model governance topics (e.g., explainability, reproducibility, fairness).
Proficiency in Python and experience with ML libraries (e.g., Scikit-learn, TensorFlow/PyTorch, SHAP, LIME).
Research experience involving defining problems, exploring potential solutions, and analyzing results, with the ability to clearly present findings to key stakeholders.
Good communication skills (both written and spoken).
Preferred qualification
If you have any of the following qualifications, please ensure to clearly mention them in your resume.
Prior experience working with interpretability or explainability libraries.
Familiarity with AI governance frameworks (e.g., EU AI Act, AI Verify, NIST AI RMF).
One or more first-authored publications in top AI/ML conference/journals.
Ability to do critical and innovative thinking. Ability to take lead in realizing ideas.
Experience with model-driven software engineering.
Only selected applicants will be contacted.Â
-------------------------------------------------------------
Poste: IA explicable et systÚme de rapport pour les applications d'apprentissage automatique dans les réseaux électriques
Lâoffre
Hitachi Energy est à la recherche d'un stagiaire en recherche hautement motivé pour contribuer à la conception et à l'évaluation de cadres de rapport alignés sur l'explicabilité et la gouvernance pour les modÚles d'apprentissage automatique utilisés dans les applications de réseaux électriques. Le stagiaire recruté travaillera sous la supervision d'un ou plusieurs chercheurs scientifiques au centre de recherche Hitachi Energy. Ce poste sera occupé dans un format hybride ou à distance au Canada.
DurĂ©e du stage: 4 mois (peut ĂȘtre prolongĂ© jusqu'Ă 6 mois selon les besoins)
Date de début: 4 mai 2026 (date flexible)
Mode de travail: Hybride
Stage rémunéré
Votre impact
Réaliser des analyses documentaires et des évaluations comparatives sur l'explicabilité du langage machine et les techniques visant à instaurer la confiance.
Ătudier les cadres permettant d'assurer la transparence, la reproductibilitĂ© et la traçabilitĂ© des modĂšles.
Explorer et Ă©valuer les mĂ©thodes dâexplication (p. ex., SHAP, LIME, modĂšles de substitution) et leur applicabilitĂ© aux flux de travail industriels de lâapprentissage machine.
Prototypes de concepts de recherche Ă lâaide de Python et dâoutils modernes dâapprentissage machine.
Consigner les conclusions et les présenter dans des rapports techniques ou des publications, selon le cas.
Votre expĂ©rienceâ
Ătudiants/candidats au doctorat en informatique/ingĂ©nierie, apprentissage machine, gĂ©nie logiciel/Ă©lectrique.
Les étudiants à la maßtrise (avec thÚse) ayant une excellente expérience dans le domaine sont également invités à postuler.
Une solide compréhension des concepts d'apprentissage automatique et d'ingénierie logicielle, de l'évaluation des modÚles, du pipeline de validation et du CI/CD est requise.
Connaissance des techniques d'interprétabilité et/ou des questions de gouvernance des modÚles (par exemple, explicabilité, reproductibilité, équité).
Maßtrise de Python et expérience des bibliothÚques ML (par exemple, Scikit-learn, TensorFlow/PyTorch, SHAP, LIME).
Expérience de la recherche impliquant la définition de problÚmes, l'exploration de solutions potentielles et l'analyse de résultats, avec la capacité de présenter clairement les conclusions aux principales parties prenantes.
Bonnes compétences en communication (à l'écrit et à l'oral).
Qualifications souhaitées
Si vous possédez l'une des qualifications suivantes, veuillez les indiquer clairement dans votre CV.
Expérience préalable dans l'utilisation de bibliothÚques d'interprétabilité ou d'explicabilité.
Connaissance des cadres de gouvernance de l'IA (par exemple, EU AI Act, AI Verify, NIST AI RMF).
Une ou plusieurs publications en tant qu'auteur principal dans des conférences/revues de premier plan sur l'IA/le langage machine (ML.)
Habiletés à mener une réflexion critique et innovante. Capacité à prendre l'initiative pour concrétiser des idées.
Expérience en ingénierie logicielle basée sur des modÚles.
Seuls les candidats sĂ©lectionnĂ©s seront contactĂ©s.Â
hitachi