ChatGPT a un gros problème de confidentialité

Quand OpenAI est sorti GPT-3 en juillet 2020, il offrait un aperçu des données utilisées pour former le grand modèle de langage. Selon un article technique, des millions de pages récupérées sur le Web, des publications Reddit, des livres, etc. sont utilisées pour créer le système de texte génératif. Certaines des informations personnelles que vous partagez sur vous-même en ligne sont récupérées dans ces données. Ces données causent maintenant des problèmes à OpenAI.

Le 31 mars, le régulateur italien des données a rendu une décision d’urgence temporaire exigeant qu’OpenAI cesse d’utiliser les informations personnelles de millions d’Italiens incluses dans ses données de formation. Selon le régulateur, Garante per la Protezione dei Dati Personali, OpenAI n’a pas le droit légal d’utiliser les informations personnelles des personnes dans ChatGPT. En réponse, OpenAI a empêché les personnes en Italie d’accéder à son chatbot pendant qu’il fournit des réponses aux responsables, qui enquêtent plus avant.

L’action est la première prise contre ChatGPT par un régulateur occidental et met en évidence les tensions en matière de confidentialité autour de la création de modèles géants d’IA générative, qui sont souvent formés sur de vastes étendues de données Internet. Tout comme les artistes et les entreprises de médias se sont plaints que les développeurs d’IA générative ont utilisé leur travail sans autorisation, le régulateur des données dit maintenant la même chose pour les informations personnelles des gens.

Des décisions similaires pourraient suivre dans toute l’Europe. Dans les jours qui ont suivi l’annonce de l’enquête par l’Italie, les régulateurs des données en France, en Allemagne et en Irlande ont contacté le Garante pour demander plus d’informations sur ses conclusions. “Si le modèle économique consiste simplement à gratter Internet pour tout ce que vous pouvez trouver, alors il pourrait y avoir un problème vraiment important ici”, déclare Tobias Judin, responsable de l’international à l’autorité norvégienne de protection des données, qui surveille les développements. Judin ajoute que si un modèle est construit sur des données qui peuvent être collectées illégalement, cela soulève des questions quant à savoir si n’importe qui peut utiliser les outils légalement.

Le coup porté par l’Italie à OpenAI survient également alors que l’examen des grands modèles d’IA augmente régulièrement. Le 29 mars, les leaders technologiques ont appelé à une pause dans le développement de systèmes comme ChatGPT, craignant ses implications futures. Judin dit que la décision italienne met en évidence des préoccupations plus immédiates. “Essentiellement, nous constatons que le développement de l’IA à ce jour pourrait potentiellement présenter une énorme lacune”, déclare Judin.

Le travail italien

Les règles européennes du RGPD, qui couvrent la manière dont les organisations collectent, stockent et utilisent les données personnelles des personnes, protègent les données de plus de 400 millions de personnes à travers le continent. Ces données personnelles peuvent être n’importe quoi, du nom d’une personne à son adresse IP. Si elles peuvent être utilisées pour identifier quelqu’un, elles peuvent être considérées comme ses informations personnelles. Contrairement à la mosaïque de règles de confidentialité au niveau de l’État aux États-Unis, les protections du GDPR s’appliquent si les informations des personnes sont librement disponibles en ligne. En bref : ce n’est pas parce que les informations d’une personne sont publiques que vous pouvez les aspirer et en faire ce que vous voulez.

L’Italien Garante pense que ChatGPT a quatre problèmes dans le cadre du GDPR : OpenAI n’a pas de contrôle d’âge pour empêcher les personnes de moins de 13 ans d’utiliser le système de génération de texte ; il peut fournir des informations sur des personnes qui ne sont pas exactes ; et les gens n’ont pas été informés que leurs données ont été collectées. Peut-être plus important encore, son quatrième argument affirme qu’il n’y a “aucune base légale” pour la collecte des informations personnelles des personnes dans la houle massive de données utilisées pour former ChatGPT.

“Les Italiens ont appelé leur bluff”, déclare Lilian Edwards, professeur de droit, d’innovation et de société à l’Université de Newcastle au Royaume-Uni. “Il semblait assez évident dans l’UE qu’il s’agissait d’une violation de la loi sur la protection des données.”

commentaires

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Le plus populaire