
Mistral AI : La Start-up Française dans la Tourmente du RGPD
Révélée au grand public il y a à peine une semaine, la jeune pousse française Mistral AI se retrouve déjà dans l'œil du cyclone. Me Jérémy Roche, avocat spécialisé en protection des données, a saisi la CNIL pour dénoncer les pratiques douteuses de la start-up en matière de collecte et de traitement des informations personnelles des utilisateurs de son assistant conversationnel « Le Chat ». Un coup dur pour cette entreprise prometteuse de l'écosystème tech tricolore.
Un modèle économique basé sur l'exploitation des données ?
Au cœur de cette affaire : l'utilisation des données des utilisateurs de la version gratuite du chatbot Le Chat afin d'entraîner les modèles d'IA de Mistral AI. Une pratique courante chez les géants de la tech mais qui pose question d'un point de vue éthique et réglementaire.
Selon la plainte déposée par Me Roche, les conditions d'utilisation du service gratuit ne laissent aucune possibilité aux internautes de s'opposer à ce traitement de leurs informations personnelles. Seuls les abonnés payants auraient accès à cette option. Une entorse au RGPD qui prévoit que les droits des utilisateurs doivent être accessibles sans frais.
Mistral AI conditionne l'exercice du droit d'opposition à la collecte des données à un abonnement payant […] et il est absolument impossible pour un utilisateur de l'offre gratuite d'exercer son droit d'Opt-out.
– Me Jérémy Roche dans sa plainte à la CNIL
Mistral AI nie en bloc et met à jour ses CGU
Contactée par nos soins, la direction de Mistral AI réfute catégoriquement ces accusations et affirme avoir toujours proposé à ses utilisateurs la possibilité de refuser l'exploitation de leurs données. Des propos en contradiction avec la politique de confidentialité actuellement en vigueur.
Face à la polémique naissante, la start-up a néanmoins décidé de revoir en urgence ses conditions générales d'utilisation pour clarifier sa position. Désormais, tous les utilisateurs, y compris ceux de la version gratuite, pourront s'opposer à la collecte en écrivant à une adresse e-mail dédiée. Un rétropédalage qui en dit long sur le flou juridique entourant ces pratiques.
L'IA générative sous haute surveillance
Cette affaire, qui n'est pas sans rappeler les déboires de ChatGPT avec le régulateur italien en 2023, illustre les défis soulevés par l'essor fulgurant de l'IA générative. Si l'utilisation des données est indispensable pour entraîner des modèles performants, elle ne peut se faire au détriment du respect de la vie privée des utilisateurs.
Pour se prémunir des sanctions, de plus en plus d'acteurs mettent en place des garde-fous, à l'image d'OpenAI qui a intégré une option de retrait (opt-out) suite à son interdiction temporaire en Italie. Mais au-delà de la mise en conformité réglementaire, c'est un véritable changement de culture qui s'impose pour bâtir une IA éthique et responsable.
Mistral AI n'est sans doute que la première d'une longue liste de start-up à devoir rendre des comptes sur ses pratiques. Un signal fort envoyé à tout l'écosystème : l'heure de l'IA « à tout prix » est révolue, place à une innovation raisonnée et soucieuse de l'intérêt des utilisateurs.