
Andrew Ng Approuve la Levée des Restrictions sur l’IA Militaire
Alors que l'intelligence artificielle (IA) poursuit sa percée fulgurante, un débat crucial refait surface : faut-il autoriser son utilisation à des fins militaires ? C'est dans ce contexte brûlant qu'Andrew Ng, éminent pionnier de l'IA et fondateur de Google Brain, a récemment pris position. Lors d'une interview accordée à TechCrunch, il a exprimé son soutien à la décision controversée de Google de lever les restrictions sur le développement d'IA destinée aux armes. Une prise de position qui ne manque pas de soulever des questions éthiques majeures.
Google fait volte-face sur l'IA militaire
En 2018, face à la fronde de ses employés lors du Project Maven, Google avait pris un engagement fort : celui de ne pas concevoir d'IA à usage militaire, notamment pour les armes ou la surveillance. Une promesse gravée dans le marbre de ses principes éthiques. Pourtant, sept ans plus tard, le géant technologique vient de faire un virage à 180 degrés en supprimant cet engagement de sa charte.
Dans un billet de blog, Demis Hassabis, PDG de DeepMind (filiale IA de Google), a justifié ce revirement en invoquant la nécessité d'une collaboration entre entreprises et gouvernements pour développer une IA au service de la sécurité nationale. Une annonce qui a fait l'effet d'une bombe dans l'écosystème tech.
Andrew Ng applaudit la décision
C'est dans ce contexte qu'Andrew Ng a exprimé son soutien appuyé à la décision de Google lors d'une interview à la Military Veteran Startup Conference. Celui qui a façonné la stratégie IA de Google s'est dit "très heureux" de ce changement de cap.
"Franchement, quand l'affaire du Project Maven a éclaté... Beaucoup d'entre vous sont prêts à verser leur sang pour notre pays, pour tous nous protéger", a déclaré Andrew Ng à un public composé en grande partie d'anciens combattants. "Alors comment diable une entreprise américaine peut-elle refuser d'aider nos propres militaires qui sont là-bas, à se battre pour nous ?"
Andrew Ng, fondateur de Google Brain
Pour lui, la clé de la sécurité de l'IA américaine réside dans sa capacité à rivaliser technologiquement avec la Chine. Il a notamment souligné que les drones pilotés par IA "révolutionneraient complètement le champ de bataille".
Des voix discordantes au sein de Google
Si Andrew Ng et l'ancien PDG de Google Eric Schmidt semblent sur la même longueur d'onde, tous les pontes de l'IA chez Google ne partagent pas cet avis. Meredith Whittaker, ex-chercheuse en IA chez Google et actuelle présidente de Signal, avait mené la fronde contre le Project Maven en 2018. À l'époque, elle s'était félicitée de l'engagement de Google à ne pas renouveler ses contrats militaires, estimant que l'entreprise "ne devrait pas être dans le business de la guerre".
Geoffrey Hinton, pionnier de l'apprentissage profond et ex-chercheur chez Google, avait lui aussi appelé les gouvernements à interdire et réglementer l'utilisation de l'IA dans les armes. Quant à Jeff Dean, scientifique en chef de DeepMind, il avait signé une lettre s'opposant à l'utilisation de l'apprentissage automatique dans les armes autonomes.
Un débat éthique brûlant
Au-delà de Google, c'est tout le secteur technologique qui est traversé par ce dilemme éthique. Alors que le Pentagone et les armées du monde entier lorgnent sur l'IA pour révolutionner leurs capacités militaires, les géants de la Silicon Valley sont tiraillés entre impératifs stratégiques et considérations morales.
Avec leurs investissements colossaux dans les infrastructures d'IA, Google, Amazon, Microsoft et consorts espèrent bien décrocher des contrats militaires juteux. Mais à quel prix pour leur image et leurs valeurs affichées ?
La décision d'Andrew Ng de soutenir publiquement le revirement de Google marque un tournant dans ce débat. Reste à voir si sa voix pèsera face aux critiques grandissantes sur les dérives potentielles d'une IA militarisée. Une chose est sûre : la course à l'IA entre grandes puissances est plus que jamais une réalité, avec son lot de dilemmes éthiques et géopolitiques. À nous de veiller à ce que le progrès technologique ne se fasse pas au détriment de nos valeurs fondamentales.