Staff Applied Research Scientist - Montréal, Canada - ServiceNow

ServiceNow
ServiceNow
Verified Company
Montréal, Canada

2 weeks ago

Sophia Lee

Posted by:

Sophia Lee

beBee Recruiter


Description
**Company Description**
At ServiceNow, our technology makes the world work for everyone, and our people make it possible. We move fast because the world can't wait, and we innovate in ways no one else can for our customers and communities. By joining ServiceNow, you are part of an ambitious team of change makers who have a restless curiosity and a drive for ingenuity. We know that your best work happens when you live your best life and share your unique talents, so we do everything we can to make that possible. We dream big together, supporting each other to make our individual and collective dreams come true. The future is ours, and it starts with you.

With more than 7,700+ customers, we serve approximately 85% of the Fortune 500, and we're proud to be one of FORTUNE 100 Best Companies to Work For and World's Most Admired Companies.

Learn more on Life at Now blog and hear from our employees about their experiences working at ServiceNow.

**Job Description** Team**

ServiceNow Research does both fundamental and applied research to futureproof AI-powered experiences. We are a group of researchers, applied scientists, and developers who lay the foundations, research, experiment, and de-risk AI technologies that unlock new work experiences in the future. In this role, you will be part of the very dynamic AI Trust & Governance Lab, whose objective is to promote breakthroughs and advances in trustworthy AI. Our work stretches across the main pillars that drive trust, including safety, reliability, robustness, security, and more. We work on methods to identify, understand and measure existing and emergent risks and capabilities. We do this through research, experimentation, prototyping and advising to help teams throughout the company strengthen and deepen their approach to trustworthy AI.

**L'équipe**

ServiceNow Research mène des recherches fondamentales et appliquées afin d'assurer la pérennité des expériences alimentées par l'IA. Nous sommes un groupe de chercheurs, de scientifiques appliqués et de développeurs qui posent les fondations, recherchent, expérimentent et éliminent les risques des technologies d'IA qui débloquent de nouvelles expériences de travail à l'avenir. Dans ce rôle, vous ferez partie du très dynamique AI Trust & Governance Lab, dont l'objectif est de promouvoir les percées et les avancées dans le domaine de l'IA digne de confiance. Nos travaux portent sur les principaux piliers de la confiance, notamment la sûreté, la fiabilité, la robustesse et la sécurité. Nous travaillons sur des méthodes permettant d'identifier, de comprendre et de mesurer les risques et les capacités existants et émergents. Nous le faisons par le biais de la recherche, de l'expérimentation, du prototypage et du conseil pour aider les équipes de toute l'entreprise à renforcer et à approfondir leur approche de l'IA digne de confiance.

**Role**

might work on training new models; in others, you might focus on risk detection and measurement for models built or fine-tuned by others. You will thrive in this role by being able to quickly understand the problem at hand, consider potential solutions, and validate your ideas. As part of the Trust & Governance Lab, good communication skills are a must to bridge gaps between teams in fundamental research, product, governance, and beyond.

**Rôle**

La recherche appliquée consiste à appliquer les concepts et les méthodes issus de la recherche fondamentale à des contextes réels, en explorant les moyens de les modifier pour accroître leur pertinence et leur évolutivité pour les équipes de l'ensemble de l'entreprise. Dans ce rôle, vous travaillerez aux côtés d'autres chercheurs appliqués en matière de confiance et de gouvernance dans le domaine de l'IA digne de confiance. La plupart du temps, il s'agira de travailler sur des défis associés à de grands modèles génératifs dans une grande variété de cas d'utilisation. Dans certains cas, vous travaillerez à la formation de nouveaux modèles ; dans d'autres, vous vous concentrerez sur la détection et la mesure des risques pour les modèles construits ou affinés par d'autres. Vous vous épanouirez dans ce rôle en étant capable de comprendre rapidement le problème, d'envisager des solutions potentielles et de valider vos idées. Dans le cadre du Trust & Governance Lab, de bonnes compétences en communication sont indispensables pour faire le pont entre les équipes de recherche fondamentale, de produits, de gouvernance et autres.
**Qualifications** To be successful in this role you have**:

- A Master's degree with 4 years of relevant experience (preferably in industry) or a Ph.D. in a relevant field with 2 years of relevant experience;
- Passion for and demonstrated experience in trustworthiness-related topics;
- Familiarity and experience working with a range of approaches to evaluating, benchmarking and testing the performance and risks in large language and other gen

More jobs from ServiceNow