Je suis à la recherche de post-doctorants, d’ingénieurs de recherche et de chercheurs expérimentés qui aimeraient se joindre à moi, sous une forme ou une autre, pour travailler sur l’alignement de l’IA avec des garanties de sécurité probabilistes, dans la lignée du programme de recherche décrit lors de ma keynote au Workshop sur l’Alignement à La Nouvelle-Orléans en décembre 2023 et mon February 2024 blog entry. Les expertises recherchent incluent (généralement pas toutes en même temps) (a) des fortes compétences mathématiques (en particulier sur les méthodes probabilistes), (b) l’expérience en apprentissage automatique (notamment sur l’inférence amortie et les architectures de ‘transformers’) et (c) l’expérience en génie logiciel pour l’IA (spécialement pour les méthodes d’entraînement des réseaux neuronaux à grande échelle). Veuillez m’écrire si vous êtes intéressé et motivé par les risques existentiels entraînés par l’IA.
Je recherche également spécifiquement un post-doctorant avec un solide bagage mathématique (idéalement un diplôme réel en mathématiques ou en math+physique ou en math+informatique) pour prendre un rôle de leadership dans la supervision de la recherche à Mila sur l’inférence probabiliste et les GFlowNets, avec des applications dans la sécurité de l’IA, l’apprentissage profond de système 2, et l’IA pour la science, qui sont les principaux domaines de recherche actuels dans mon laboratoire.