Whatsapp fue denunciada en el país por usar datos privados para entrenar su IA
La presentación se hizo ante la Agencia de Acceso a la Información Pública (AAIP), autoridad de aplicación de la Ley de Protección de Datos Personales de Argentina (Ley 25.326)
Los abogados especialistas en protección de datos personales, Facundo Malaureille y Daniel Monastersky, formalizaron la presentación contra Meta, la empresa matriz de Facebook, WhatsApp e Instagram, por el uso de datos personales en Argentina para el entrenamiento de IA, según publicó Ciberseguridad Latam.
Consta de 22 puntos, en los que solicita a Meta Argentina explicaciones sobre sus prácticas de recolección y uso de datos personales.
Entre los puntos más relevantes requeridos figuran:
-Detalles sobre la actualización de la Política de Privacidad y evidencia del consentimiento de los usuarios.
-Una Evaluación de Análisis de Impacto (PIA) conforme a las guías argentinas.
-Explicaciones técnicas sobre los procesos de anonimización de datos y garantías de su irreversibilidad.
-Aclaraciones sobre cómo se previene la reidentificación de datos anonimizados.
-Información sobre el manejo de metadatos y datos sensibles en el proceso de anonimización.
-Detalles sobre las políticas de retención y destrucción de datos.
También piden a la AAIP realizar una auditoría independiente de los procesos de Meta en el país y establecer directrices sobre los estándares de anonimización aceptables en Argentina, en el marco de sus facultades como autoridad de aplicación de la Ley 25.326.
“Con esta presentación, buscamos que Argentina tome una posición proactiva en la regulación del uso de datos personales para el entrenamiento de IA“, comentó Facundo Malaureille, quien puso de relieve que “es crucial que no nos quedemos atrás en la protección de los derechos digitales de nuestros ciudadanos“.
Monastersky agregó: “Esta denuncia busca establecer un precedente legal que guíe futuras regulaciones y prácticas en el ámbito de la IA y la protección de datos en nuestro país”.
Ambos firmantes sostienen que “la ausencia de una legislación actualizada en este campo coloca a los ciudadanos en riesgo de sufrir abusos potenciales por parte de empresas multinacionales que manejan grande volúmenes de información personal”.
E instaron a los diputados y senadores a tomar conciencia de la situación crítica en la que se encuentra la protección de datos personales en el país.
El texto de la presentación advierte que «la falta de acción legislativa al no tratar el proyecto de reforma de la ley 25.326 deja a los ciudadanos argentinos en una posición vulnerable, expuestos a las decisiones unilaterales de corporaciones tecnológicas de gran envergadura, como Meta».
Quejas en Europa
La corporación global Meta Platforms ya venía recibiendo desde junio 11 quejas presentadas en Austria, Bélgica, Francia, Alemania, Grecia, Italia, Irlanda, Países Bajos, Noruega, Polonia y España por los cambios propuestos en la forma en que utiliza datos personales para entrenar sus modelos de inteligencia artificial sin obtener consentimiento.
Las quejas afirmaron que los recientes cambios en la política de privacidad de Meta, que entraron en vigor el 26 de junio, permitirían a la compañía utilizar años de publicaciones personales, imágenes privadas y datos de seguimiento en línea para su tecnología de inteligencia artificial.
Debido a los cambios inminentes, NYOB pidió a las autoridades de protección de datos en los 11 países que inicien una revisión urgente.
Según una declaración de NYOB, la recientemente actualizada política de privacidad de Meta cita un interés legítimo en usar los datos de los usuarios para entrenar y desarrollar sus modelos de IA generativa y otras herramientas de IA, las cuales pueden ser compartidas con terceros.
El cambio de política impacta a millones de usuarios europeos, impidiéndoles eliminar sus datos una vez que están en el sistema.
Amenazas de multas
NYOB ha presentado previamente varias quejas contra Meta y otras grandes empresas tecnológicas por presuntas violaciones del Reglamento General de Protección de Datos (GDPR) de la UE, que amenaza con multas de hasta el 4% de la facturación global total de una empresa por violaciones.
En tal sentido, el fundador de NYOB, Max Schrems, señaló en una declaración que el Tribunal de Justicia de la Unión Europea ya tomó una decisión histórica sobre este tema en 2021, la cual debería servir como punto de referencia para abordar el uso propuesto por Meta de los datos personales.
Dijo: “El Tribunal de Justicia de la Unión Europea (CJEU) ya ha dejado claro que Meta no tiene un ‘interés legítimo’ para anular el derecho de los usuarios a la protección de datos cuando se trata de publicidad… Parece que Meta una vez más está ignorando descaradamente los fallos del CJEU”.
Argumentó que es completamente irrazonable confiar a los usuarios la responsabilidad de proteger su privacidad.
La ley exige que Meta obtenga el consentimiento explícito de los usuarios en lugar de proporcionar una opción de exclusión oculta y engañosa.
Enfatizó que si Meta quiere usar los datos de los usuarios, debe pedir permiso directamente.
En su lugar, Meta ha hecho que los usuarios soliciten ser excluidos del uso de datos, lo cual “es inapropiado”.
En julio de 2023, Google ya había sido demandado por motivos similares después de actualizar su política de privacidad.
La demanda acusaba a la empresa de usar grandes cantidades de datos, incluidos materiales con derechos de autor, en su entrenamiento de IA.
Contexto internacional
Esta denuncia en Argentina se produce en un contexto internacional de creciente escrutinio sobre las prácticas de las grandes tecnológicas en materia de IA y protección de datos.
Recientemente, Brasil tomó medidas similares:
– La autoridad de protección de datos brasileña (ANPD) obligó a Meta a suspender el funcionamiento de “Meta AI” en el país.
– Se impuso una posible multa de 50 mil reales diarios por incumplimiento.
– La Fiscalía brasileña solicitó una sanción de 1733 millones de reales contra WhatsApp por supuesta violación de privacidad.
En Europa, la situación también presenta desafíos:
– Meta decidió no lanzar sus modelos de IA multimodal en la Unión Europea debido a la “naturaleza impredecible del entorno normativo”.
– Los nuevos modelos Llama 3.1 de IA no están disponibles en la UE para evitar potenciales sanciones por violación del RGPD.
– Rob Sherman, directivo de Meta, expresó preocupación por el riesgo de que Europa “quede fuera” en el desarrollo de IA avanzada debido a la regulación.
La comunidad tecnológica y legal del país observa atentamente el desarrollo de este caso, consciente de que el resultado podría tener un impacto significativo en la innovación en IA y la protección de datos personales en Argentina en los próximos años, habida cuenta del creciente poder y alcance de las plataformas digitales en la vida cotidiana.
Deja una respuesta