Team
ServiceNow Research does both fundamental and applied research to futureproof AI-powered experiences. We are a group of researchers, applied scientists, and developers who lay the foundations, research, experiment, and de-risk AI technologies that unlock new work experiences in the future. In this role, you will be part of the very dynamic AI Trust & Governance Lab, whose objective is to promote breakthroughs and advances in trustworthy AI. Our work stretches across the main pillars that drive trust, including safety, reliability, robustness, security, and more. We work on methods to identify, understand and measure existing and emergent risks and capabilities. We do this through research, experimentation, prototyping and advising to help teams throughout the company strengthen and deepen their approach to trustworthy AI.
L'équipe
ServiceNow Research mène des recherches fondamentales et appliquées afin d'assurer la pérennité des expériences alimentées par l'IA. Nous sommes un groupe de chercheurs, de scientifiques appliqués et de développeurs qui posent les fondations, recherchent, expérimentent et éliminent les risques des technologies d'IA qui débloquent de nouvelles expériences de travail à l'avenir. Dans ce rôle, vous ferez partie du très dynamique AI Trust & Governance Lab, dont l'objectif est de promouvoir les percées et les avancées dans le domaine de l'IA digne de confiance. Nos travaux portent sur les principaux piliers de la confiance, notamment la sûreté, la fiabilité, la robustesse et la sécurité. Nous travaillons sur des méthodes permettant d'identifier, de comprendre et de mesurer les risques et les capacités existants et émergents. Nous le faisons par le biais de la recherche, de l'expérimentation, du prototypage et du conseil pour aider les équipes de toute l'entreprise à renforcer et à approfondir leur approche de l'IA digne de confiance.
Role
Applied research involves applying concepts and methods emerging in fundamental research to real world contexts, exploring ways in which they might need to be changed to increase their relevance and scalability for teams throughout the company. In this role, you will work alongside other Trust & Governance applied researchers in the field of trustworthy AI. Overwhelmingly, this will involve working on challenges associated with large, generative models across a wide variety of use cases. In some cases, you
might work on training new models; in others, you might focus on risk detection and measurement for models built or fine-tuned by others. You will thrive in this role by being able to quickly understand the problem at hand, consider potential solutions, and validate your ideas. As part of the Trust & Governance Lab, good communication skills are a must to bridge gaps between teams in fundamental research, product, governance, and beyond.
Rôle
La recherche appliquée consiste à appliquer les concepts et les méthodes issus de la recherche fondamentale à des contextes réels, en explorant les moyens de les modifier pour accroître leur pertinence et leur évolutivité pour les équipes de l'ensemble de l'entreprise. Dans ce rôle, vous travaillerez aux côtés d'autres chercheurs appliqués en matière de confiance et de gouvernance dans le domaine de l'IA digne de confiance. La plupart du temps, il s'agira de travailler sur des défis associés à de grands modèles génératifs dans une grande variété de cas d'utilisation. Dans certains cas, vous travaillerez à la formation de nouveaux modèles ; dans d'autres, vous vous concentrerez sur la détection et la mesure des risques pour les modèles construits ou affinés par d'autres. Vous vous épanouirez dans ce rôle en étant capable de comprendre rapidement le problème, d'envisager des solutions potentielles et de valider vos idées. Dans le cadre du Trust & Governance Lab, de bonnes compétences en communication sont indispensables pour faire le pont entre les équipes de recherche fondamentale, de produits, de gouvernance et autres.