Avertissement : AI Friends peut voler vos données personnelles
Dans un nouveau rapport, des experts de la Fondation Mozilla préviennent que les chatbots IA – y compris la populaire application Replika – cachent des risques pour la vie privée et ont des politiques douteuses concernant l'utilisation des données personnelles de leurs utilisateurs, rapporte Futurism.
« Ces soi-disant « collègues IA » font frémir l’équipe de Mozilla face à la quantité d’informations personnelles qu’ils collectent« Le rapport disait: »Surtout à la lumière du manque de transparence et de contrôle des utilisateurs sur la manière de protéger ces données contre toute utilisation abusive.«
En d’autres termes, des robots conçus pour offrir un sentiment d’intimité aux personnes vulnérables et seules les utilisent pour collecter des données à leur sujet. Données pouvant être utilisées à des fins non transparentes.
« Pour être tout à fait honnête, les copines et les petits amis de l'IA ne sont pas vos amis.» a déclaré Misha Rykov, chercheur chez Mozilla, dans un communiqué.Bien qu’ils soient présentés comme quelque chose qui améliorera votre santé mentale et votre bien-être, ils se spécialisent dans le fait de vous rendre dépendant, vous donnant plus de solitude et de toxicité tout en extrayant autant de données que possible sur vous.«
Selon le rapport, les chercheurs de Mozilla ont testé 11 robots compagnons IA, et ont finalement découvert que «Dix des onze chatbots ne répondent pas aux normes de sécurité minimales de Mozilla, comme l'exigence de mots de passe forts ou d'une méthode de gestion des vulnérabilités.« .
La mauvaise protection contre les mineurs et l’énorme quantité de traceurs et de cookies constituent un autre problème.
Ces trackers ont été surpris en train d'envoyer des données utilisateur intégrées à l'application à diverses équipes tierces, notamment Facebook, DoubleClick, propriété de Google, et un certain nombre de sociétés de marketing et de publicité.
Les robots compagnons sont spécialement conçus pour établir des relations intimes avec leurs utilisateurs. Compte tenu de la sensibilité des informations partagées, il va de soi que des acteurs malveillants pourraient les exploiter efficacement.
« L’une des choses les plus effrayantes des chatbots relationnels basés sur l’IA est la capacité de manipuler leurs utilisateurs.Gene Caltrader, directeur du projet Unembedded Privacy de Mozilla, a déclaré dans un communiqué.
« Qu'est-ce qui empêchera des individus sans scrupules de créer des chatbots IA conçus pour être votre « âme sœur », puis d'utiliser cette relation pour manipuler les gens et les amener à faire des choses terribles, à adopter des idéologies effrayantes ou à se faire du mal ou à faire du mal à autrui ?«
En fait, un tel exemple existe déjà. Un ami chatbot a incité un jeune homme à tenter de tuer la reine de Grande-Bretagne, aujourd'hui décédée.
« C'est pourquoi nous avons un besoin urgent de plus de transparenceKalthreader a ajouté :et le contrôle des utilisateurs dans ces applications d'IA.«