Tech

ChatGPT entre dans un monde de douleur réglementaire en Europe – POLITICO

Cliquez sur play pour écouter cet article

exprimée par l’intelligence artificielle.

ChatGPT s’est mis en place pour un parcours difficile avec les puissants chiens de garde de la confidentialité en Europe.

Le chatbot est la sensation la plus en vogue de la technologie de l’IA, mais a été frappé d’une interdiction temporaire en Italie vendredi dernier au motif qu’il pourrait enfreindre le règlement européen sur la confidentialité, Règlement général sur la protection des données (Règlement général sur la protection des données).

L’interdiction italienne n’est que le début des malheurs de ChatGPT, s’ouvrant aux problèmes de confidentialité dans tout le bloc et alimentant une technologie de pointe qui oblige les gouvernements à gérer des risques allant de la protection des données à désinformationEt CybercriminalitéFraude et tricherie dans les tests scolaires.

L’organisation OpenAI qui a créé ChatGPT a un objectif sur le dos : elle n’a pas établi de siège local dans l’un des 27 pays de l’UE, ce qui signifie que toute autorité de protection des données dans n’importe quel État membre peut lancer de nouvelles enquêtes et imposer des interdictions.

Auparavant, Google avait été condamné à une amende de 50 millions d’euros en France en vertu du GDPR, avant que le géant américain de la technologie ne centralise officiellement son système juridique européen en Irlande. TikTok a également fait face à de nombreuses enquêtes sur la confidentialité et à des amendes de la part des autorités néerlandaises, italiennes et françaises avant de s’installer légalement en Irlande en 2021.

Comme leurs homologues italiens, les régulateurs européens des données envisagent leurs prochaines étapes pour enquêter sur les violations présumées.

La Commission irlandaise de protection des données a déclaré qu’elle « se coordonnerait avec tous les pays de l’UE ». [data protection authorities] concernant cette question », selon le porte-parole de la société, Graham Doyle. L’autorité belge de protection des données a également déclaré que les violations potentielles de ChatGPT « devraient être discutées dans [the] Niveau européen. »

L’autorité française de protection des données CNIL a reçu au moins deux plaintes contre ChatGPT, pour des motifs de violation de la vie privée, y compris le règlement général sur la protection des données, L’Informé a rapporté.

En Norvège, « Nous n’avons pas encore lancé d’enquête sur ChatGPT, mais nous n’excluons rien pour l’avenir », a déclaré Tobias Godin, responsable des travaux internationaux pour le régulateur national de la protection des données Datatilsynet.

Alors qu’OpenAI a nié avoir enfreint les lois européennes sur la confidentialité, le PDG Sam Altman a déclaré Il a dit Il a tweeté que son entreprise faisait référence au « gouvernement italien » pour les interdictions – déroutant apparemment le régulateur gouvernemental indépendant du pays.

« L’Italie est l’un de mes pays préférés, et j’ai hâte d’y retourner bientôt », a déclaré Altmann.

L’autorité italienne de protection des données a déclaré le 6 avril qu’OpenAI était disposé à remédier à une éventuelle violation des lois européennes sur la protection de la vie privée, après un appel vidéo avec des dirigeants de l’entreprise.

Comme leurs homologues italiens, les régulateurs européens des données envisagent leurs prochaines étapes pour enquêter sur les violations présumées Nicolas Maeterlinck/Belga Mag/AFP via Getty Images

Lois à respecter

Ce n’est pas seulement la confidentialité qui fait que les systèmes d’IA comme ChatGPT suscitent des inquiétudes.

Fin mars, A.J mec belge Le journal belge La Libre s’est suicidé après des semaines de conversations avec un chatbot alimenté par l’IA nommé Eliza. La semaine dernière, le magnat de la technologie Elon Musk et des milliers d’experts en intelligence artificielle ont appelé à l’arrêt du développement de ChatGPT. plus « Des dangers profonds pour l’humanité. »

Les groupes de défense ont emboîté le pas. Aux États-Unis, le Center for Artificial Intelligence and Digital Policy a demandé à la Federal Trade Commission des États-Unis d’enquêter sur OpenAI et d’interdire d’autres versions de son bot. À Bruxelles la semaine dernière, l’organisme de surveillance des consommateurs BEUC a appelé les régulateurs européens et nationaux à enquêter sur ChatGPT, avertissant que le prochain règlement de l’UE sur l’IA pourrait arriver trop tard pour parer aux dommages.

Les législateurs européens négocient également des interdictions de protection juridique sur la technologie dans le cadre du projet de loi de l’UE sur l’intelligence artificielle.

Mais l’absence de législation sur l’IA a encouragé les régulateurs de la protection des données à intervenir.

« Lentement, les régulateurs de la protection des données réalisent qu’ils sont des régulateurs de l’IA », a déclaré Gabriela Zanvir Fortuna, du groupe de réflexion Future of Privacy Forum.

Les régulateurs de la vie privée appliquent le GDPR, y compris ses règles sur la collecte de données et la protection des utilisateurs contre la prise de décision automatisée. Des entreprises comme OpenAI ont besoin d’une base légale pour collecter et utiliser les données personnelles, être transparentes sur la façon dont elles utilisent les données des personnes, maintenir l’exactitude des données personnelles et donner aux personnes le droit de rectification.

OpenAI n’a jamais divulgué l’ensemble de données qu’il a utilisé pour former le modèle d’IA sous-jacent au chatbot. Même les chercheurs de Microsoft, qui est le principal investisseur d’OpenAI, ont déclaré dans un Le dernier papier Ils ne sont pas en mesure d’accéder à tous les détails sur [ChatGPT] Des données d’entraînement considérables.

La société d’IA de reconnaissance faciale Clearview a déjà été condamnée à une amende et ordonnée par les régulateurs de la confidentialité de supprimer les images de personnes italiennes, françaises et britanniques qu’elle a collectées en ligne pour construire son algorithme, car elle n’avait pas la base légale pour le faire.

Le fait que ChatGPT ait subi une violation de données et exposé les chats et les informations de paiement de ses utilisateurs en mars ne fait qu’ajouter à ses malheurs.

La décision italienne d’arrêter ChatGPT dans son élan est un « signal d’alarme », a déclaré Dislava Savova, partenaire technologique du cabinet d’avocats Clifford Chance. « Cela entamerait en fait un dialogue en Europe et précipiterait une position que d’autres régulateurs adopteraient. »

Laura Kayali a contribué au reportage.

Cet article a été mis à jour pour refléter que des groupes de défense, dont le BEUC, ont demandé aux régulateurs d’enquêter sur ChatGPT et Pour refléter les nouveaux développements concernant le travail des régulateurs italien et français sur OpenAI.

Cunégonde Lestrange

"Gourou de Twitter. Écrivain en herbe. Fauteur de troubles typique. Entrepreneur. Étudiant hipster."

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Fermer
Fermer