JUEVES, 31 DE OCT

Demanda contra Meta: denuncian a WhatsApp por usar datos privados para entrenar su Inteligencia Artificial

"Con esta presentación, buscamos que Argentina tome una posición proactiva en la regulación del uso de datos personales para el entrenamiento de IA", comentó el abogado Facundo Malaureille, quien puso de relieve que "es crucial no quedarse atrás en la protección de los derechos digitales de los ciudadanos".

 

Nuevamente la Inteligencia Artificial (IA) en la mira. En este sentido, y luego de una denuncia formalizada por dos abogados especialistas en protección de datos personales, Meta Argentina deberá dar explicaciones sobre sus prácticas de recolección y uso de datos.

Dicha presentación se hizo ante la Agencia de Acceso a la Información Pública (AAIP), autoridad de aplicación de la Ley de Protección de Datos Personales de Argentina (Ley 25.326).

Los abogados especialistas en protección de datos personales Facundo Malaureille y Daniel Monastersky formalizaron una denuncia contra Meta, la empresa matriz de Facebook, WhatsApp e Instagram, por el uso de datos personales en Argentina para el entrenamiento de IA, según publicó Ciberseguridad Latam.

La presentación consta de 22 puntos, en los que solicita a Meta Argentina explicaciones sobre sus prácticas de recolección y uso de datos personales. Entre los puntos más relevantes requeridos figuran:

  • Detalles sobre la actualización de la Política de Privacidad y evidencia del consentimiento de los usuarios.
  • Una Evaluación de Análisis de Impacto (PIA) conforme a las guías argentinas.
  • Explicaciones técnicas sobre los procesos de anonimización de datos y garantías de su irreversibilidad.
  • Aclaraciones sobre cómo se previene la reidentificación de datos anonimizados.
  • Información sobre el manejo de metadatos y datos sensibles en el proceso de anonimización.
  • Detalles sobre las políticas de retención y destrucción de datos.

También piden a la AAIP realizar una auditoría independiente de los procesos de Meta en el país y establecer directrices sobre los estándares de anonimización aceptables en Argentina, en el marco de sus facultades como autoridad de aplicación de la Ley 25.326.

«Con esta presentación, buscamos que Argentina tome una posición proactiva en la regulación del uso de datos personales para el entrenamiento de IA», comentó Facundo Malaureille, quien puso de relieve que «es crucial no quedarse atrás en la protección de los derechos digitales de los ciudadanos».

Monastersky agregó: «Esta denuncia busca establecer un precedente legal que guíe futuras regulaciones y prácticas en el ámbito de la IA y la protección de datos en nuestro país».

Ambos firmantes sostienen que «la ausencia de una legislación actualizada en este campo coloca a los ciudadanos en riesgo de sufrir abusos potenciales por parte de empresas multinacionales que manejan grandes volúmenes de información personal».

Asimismo, instaron a los diputados y senadores a tomar conciencia de la situación crítica en la que se encuentra la protección de datos personales en el país.

El texto de la presentación advierte que «la falta de acción legislativa al no tratar el proyecto de reforma de la ley 25.326 deja a los ciudadanos argentinos en una posición vulnerable, expuestos a las decisiones unilaterales de corporaciones tecnológicas de gran envergadura, como Meta».

¿Qué ocurre en Europa?

La corporación global Meta Platforms ya venía recibiendo desde junio 11 quejas presentadas en Austria, Bélgica, Francia, Alemania, Grecia, Italia, Irlanda, Países Bajos, Noruega, Polonia y España por los cambios propuestos en la forma en que utiliza datos personales para entrenar sus modelos de inteligencia artificial sin obtener consentimiento.

Las quejas afirmaron que los recientes cambios en la política de privacidad de Meta, que entraron en vigor el 26 de junio, permitirían a la compañía utilizar años de publicaciones personales, imágenes privadas y datos de seguimiento en línea para su tecnología de inteligencia artificial.

Debido a los cambios inminentes, NYOB pidió a las autoridades de protección de datos en los 11 países que inicien una revisión urgente.

Según una declaración de NYOB, la recientemente actualizada política de privacidad de Meta cita un interés legítimo en usar los datos de los usuarios para entrenar y desarrollar sus modelos de IA generativa y otras herramientas de IA, las cuales pueden ser compartidas con terceros.

El cambio de política impacta a millones de usuarios europeos, impidiéndoles eliminar sus datos una vez que están en el sistema.

En este sentido, NYOB ha presentado previamente varias quejas contra Meta y otras grandes empresas tecnológicas por presuntas violaciones del Reglamento General de Protección de Datos (GDPR) de la UE, que amenaza con multas de hasta el 4% de la facturación global total de una empresa por violaciones.

En efecto, el fundador de NYOB, Max Schrems, señaló en una declaración que el Tribunal de Justicia de la Unión Europea ya tomó una decisión histórica sobre este tema en 2021, la cual debería servir como punto de referencia para abordar el uso propuesto por Meta de los datos personales.

Últimas Noticias