Le Modèle IA de Google Fait l’Objet d’une Enquête Européenne
La Commission de Protection des Données (DPC) a annoncé aujourd’hui une enquête sur Google pour déterminer si l’entreprise a respecté les lois européennes de protection des données lors du développement de son modèle d’intelligence artificielle, Pathways Language Model 2 (PaLM 2).
PaLM2 est un grand modèle linguistique utilisé dans divers services d’IA, y compris la synthèse d’e-mails. Google a déclaré qu’il coopérera avec l’enquête, comme le souligne l’AP.
L’enquête évaluera si Google aurait dû réaliser une Analyse d’Impact sur la Protection des Données (AIPD) pour évaluer les risques potentiels pour les droits et libertés des individus découlant de ses technologies d’IA.
Cette enquête fait partie des efforts plus larges de la DPC pour assurer la conformité avec les règles de protection des données dans le secteur de l’IA à travers l’Europe. Le traitement transfrontalier, qui implique la gestion des données à travers plusieurs pays de l’UE ou affectant des individus dans plusieurs nations, est particulièrement scruté.
Les outils d’IA générative, connus pour produire des informations convaincantes mais fausses et pour accéder aux données personnelles, présentent des risques juridiques significatifs, comme le note TechCrunch. La DPC, responsable de la conformité de Google avec le Règlement Général sur la Protection des Données (RGPD).
À cet effet, la DPC peut imposer des amendes allant jusqu’à 4% du chiffre d’affaires annuel mondial de la société mère de Google, Alphabet, pour des infractions, comme le rapporte TechCrunch.
Google a développé une gamme d’outils d’IA génératifs, y compris sa série Gemini de grands modèles de langage (anciennement Bard) utilisés pour diverses applications, dont l’amélioration de la recherche web grâce aux chatbots IA, note TechCrunch.
Au cœur de ces outils se trouve le PaLM2 de Google, un LLM fondamental lancé lors de la conférence des développeurs I/O de l’année dernière, a déclaré TechCrunch.
Le mois dernier, X d’Elon Musk a également fait l’objet d’un examen minutieux de la part des régulateurs européens concernant son utilisation des données des utilisateurs pour la formation en IA. La DPC a lancé une enquête après avoir reçu des plaintes selon lesquelles X alimentait sa technologie Grok AI avec les données des utilisateurs sans obtenir le consentement approprié. Alors que X a accepté de limiter son traitement des données, il n’a pas fait l’objet de sanctions.
Cette enquête fait partie des efforts plus larges de la DPC pour réguler l’utilisation des données personnelles dans le développement de l’IA à travers l’Union Européenne. L’adoption récente par l’UE de la Loi sur l’Intelligence Artificielle marque une étape significative vers l’établissement d’un cadre réglementaire pour les technologies d’IA au sein du bloc.
Laisser un commentaire
Annulez