
Controverse Lors D’un Discours d’IA à NeurIPS
La conférence annuelle NeurIPS, dédiée à l'Intelligence Artificielle, a été le théâtre d'une controverse inattendue cette année. Lors de son discours d'ouverture intitulé « Comment optimiser ce qui compte le plus », la Professeure du MIT Media Lab Rosalind Picard a suscité l'indignation, non pas pour ses propos sur l'IA, mais pour une référence douteuse à un étudiant chinois.
Une diapositive qui fait polémique
Au cœur de la controverse, une diapositive citant l'excuse donnée par un « étudiant chinois maintenant expulsé d'une grande université » pour avoir utilisé l'IA. Celui-ci aurait déclaré : « Personne dans mon école ne nous a enseigné la morale ou les valeurs ». La diapositive incluait également une note de Picard : « La plupart des Chinois que je connais sont honnêtes et moralement droits ».
Atténuer les biais raciaux des grands modèles de langage est bien plus facile que de les supprimer chez les humains !
Jiao Sun, chercheuse chez Google DeepMind
Yuandong Tian, chercheur chez Meta, a renchéri sur les réseaux sociaux : « C'est un biais racial explicite. Comment cela a-t-il pu arriver à NeurIPS ? »
Des excuses de la conférencière et des organisateurs
Face à la polémique, les organisateurs de NeurIPS ont rapidement publié des excuses, soulignant que de tels propos ne sont pas acceptables et vont à l'encontre de leur code de conduite. Ils ont assuré traiter directement du problème avec la conférencière. De son côté, Rosalind Picard a exprimé ses regrets, reconnaissant que la mention de la nationalité de l'étudiant était inutile et non pertinente. Elle a présenté ses excuses pour la détresse causée.
La question des biais dans l'IA
Au-delà de cet incident, cette controverse soulève une question de fond : celle des biais, souvent inconscients, qui peuvent se glisser dans les discours et les travaux sur l'IA. Les chercheurs et professionnels du domaine doivent redoubler de vigilance pour éviter ces écueils.
Comme le rappelle Jiao Sun, si les biais raciaux sont malheureusement fréquents chez les humains, il est crucial de tout faire pour les bannir des systèmes d'IA, qui se doivent d'être neutres et équitables. Cela passe par une sensibilisation accrue et une remise en question permanente.
Les leçons à tirer
Cette polémique doit servir de piqûre de rappel à toute la communauté de l'IA. Les conférences et événements comme NeurIPS sont des lieux d'échanges et de partage, qui doivent promouvoir la diversité et l'inclusion. Voici quelques points clés à retenir :
- Être extrêmement vigilant dans ses propos et exemples utilisés
- Éviter toute référence inutile à la nationalité ou à l'origine
- Promouvoir activement la diversité et l'inclusion
Il est de la responsabilité de chacun, des conférenciers aux participants en passant par les organisateurs, de créer un environnement bienveillant et respectueux, propice aux échanges constructifs sur les enjeux de l'IA. C'est à ce prix que la communauté pourra avancer sereinement vers un futur où l'intelligence artificielle sera réellement au service de tous.