miércoles, febrero 19, 2025

Nota en diario La Nación sobre IA y deepfakes

 

Deepfakes y el Derecho

El avance tecnológico ha traído consigo incontables soluciones que han transformado la vida cotidiana, pero también ha generado nuevos problemas que desafían al mundo del derecho, poniendo a prueba las legislaciones actuales. La irrupción de la inteligencia artificial (“IA”) es uno de los aspectos más novedosos que, a pesar de sus potenciales beneficios, ha propiciado el surgimiento de amenazas inéditas, como el acoso digital y el uso indebido de Deepfakes. 
Deepfake es una tecnología de IA que permite crear o modificar contenido audiovisual de manera tan realista que resulta casi imposible de distinguir de la realidad. A través de esto, se pueden intercambiar rostros, modificar voces e incluso generar situaciones que nunca ocurrieron, facilitando fraudes, abusos y vulneración de derechos. Este poder de manipulación de la realidad se extiende también al ámbito del bullying digital, ampliando su impacto debido a la rápida y masiva difusión de contenidos en plataformas como X (antes Twitter) o Telegram.
Un ejemplo claro de esto es el caso de Taylor Swift, quien se vio involucrada en un escándalo cuando imágenes pornográficas Deepfakes de ella fueron distribuidas masivamente en dichas plataformas, afectando su imagen y generando un debate sobre la protección de la privacidad en el entorno digital.
El uso de Deepfakes ha generado preocupación en términos de violencia de género, ya que los agresores recurren a la IA para crear contenido sexualizado de mujeres, alterando imágenes o videos en los cuales se simulan escenas sexuales. Esta práctica puede ir acompañada de extorsión o amenazas para difundir dichos contenidos. Este tipo de violencia digital vulnera la privacidad de las víctimas, contribuyendo a la reproducción de estereotipos machistas y la perpetuación de la desigualdad de género.
En respuesta a la creciente preocupación sobre este tema, Argentina promulgó la Ley 27.736, conocida como “Ley Olimpia”, que amplía el concepto de violencia de género a los entornos digitales, incorporando la difusión no consensuada de imágenes íntimas. Sin embargo, esta ley no aborda específicamente el uso de IA, lo que genera un vacío legal sobre cómo abordar los Deepfakes.
De todas maneras, en algunos casos, cuando las víctimas son menores de edad, se sanciona bajo el artículo 128 del Código Penal, que penaliza la tenencia, distribución y comercialización de material sexual infantil.
A pesar de los esfuerzos por abordar esta problemática, a nivel nacional aún no existe una legislación específica que sancione la creación de imágenes generadas por IA. No obstante, se están impulsando proyectos de ley que buscan modificar el Código Penal y crear un régimen jurídico aplicable para regular el uso responsable de la IA, con especial atención a los Deepfakes.
 A nivel regional, la “Ley Olimpia” de México ha sido un referente. Esta ley surgió como respuesta a la activista Olimpia Coral Melo, quien fue víctima de la difusión de un video íntimo sin su consentimiento. Esta ley ha servido como modelo para otras legislaciones en América Latina, reflejando la creciente preocupación por este fenómeno.
A nivel global, varios países también han comenzado a legislar sobre los Deepfakes. En el Reino Unido, la Online Safety Act 2023, establece como delito la difusión de imágenes manipuladas por IA sin consentimiento. En Francia, el Código Penal contempla sanciones o multas para quienes difundan contenido sexual generado artificialmente. Por su parte, en Estados Unidos, varios estados han legislado sobre el tema. En California, se establece como delito la creación y distribución de imágenes fotorrealistas de partes íntimas de una persona o de personas participando en actos sexuales, generada por computadora. 
En este contexto, el derecho debe evolucionar para adaptarse a las nuevas realidades impuestas por la tecnología, ya que sus avances no deben ser una excusa para la vulneración de derechos fundamentales. La legislación debe ser lo suficientemente robusta como para abordar los riesgos asociados con los Deepfakes y proteger la integridad, la privacidad y los derechos de las personas en el entorno digital.

Firmada Por:
Pablo Palazzi
Socio del departamento de tecnología e inteligencia artificial de Allende & Brea.


lunes, enero 06, 2025

PERU - se ordenó a entidad financiera cese del tratamiento de datos biometricos para fines de validación de identidad en el uso del Libro de reclamaciones virtual.

 Se impuso al Banco de Crédito del Perú una multa acumulada de casi S/ 300,000. Además, se ordenó que cese su tratamiento para fines de validación de identidad en el uso del Libro de reclamaciones virtual.


El Ministerio de Justicia y Derechos Humanos (MINJUSDH), a través de la Autoridad Nacional de Protección de Datos Personales (ANPD), sancionó al Banco de Crédito del Perú (BCP) con una multa de S/ 124,200 (27 UIT) por la recopilación excesiva y desproporcionada de datos biométricos faciales de sus usuarios. Estos datos personales eran obtenidos cuando los usuarios, sean o no clientes de la entidad financiera, utilizaban el Libro de reclamaciones virtual, con la finalidad de presentar sus quejas o reclamos.

Además, impuso otra multa de S/ 165,600 (36 UIT) por almacenar en una base de datos propia los datos biométricos faciales sin obtener el consentimiento válido de los usuarios. Ambas sanciones fueron confirmadas en segunda instancia. La multa se calculó en función del año en que se cometió la infracción o fue detectada por la ANPD (S/ 4600 en 2022).

Cabe recordar a la ciudadanía que los datos biométricos son una categoría especial de datos sensibles, ya que son únicos e inalterables, obtenidos a partir de un tratamiento técnico específico, relacionados a las características físicas, fisiológicas o conductuales de una persona física, que permiten identificarlas o autenticar su identidad. Debido a los altos riesgos que su tratamiento implica para los derechos de las personas (como el acceso restringido a servicios, afectación a la privacidad o el uso legítimo de los mismos), reciben una protección especial bajo la Ley y el Reglamento de Protección de Datos Personales.

Asimismo, la ANPD ordenó al BCP implementar medidas correctivas que incluyen la eliminación de los patrones biométricos faciales obtenidos a través del uso del Libro de reclamaciones virtual; asimismo, se dispuso el cese inmediato del almacenamiento y uso de dichos patrones biométricos faciales para futuras validaciones de la identidad de los usuarios.

La ANPD reconoce la importancia de implementar mecanismos de seguridad para validar o autenticar la identidad de los usuarios en las operaciones financieras; sin embargo, esta obligación no exonera a las entidades financieras de evaluar mecanismos alternativos, menos intrusivos e igualmente efectivos para verificar la identidad de los usuarios, limitando el tratamiento de datos personales biométricos a las situaciones en las que sea estrictamente necesarios, pertinentes y adecuados para la finalidad del tratamiento.

Pese a la obligación de minimización en el tratamiento de datos personales, la ANPD, en las distintas actuaciones de fiscalización, ha podido verificar que diversas entidades requieren datos personales, incluso datos sensibles, sin que exista una necesidad real y justificada para su tratamiento.
La ANPD recuerda que el tratamiento de datos personales que efectúen las entidades debe limitarse estrictamente a la realización de sus operaciones, y tiene que estar vinculado a un fin concreto, explícito y lícito. Esto implica que solo deben ser objeto de tratamiento los datos personales necesarios, adecuados y relevantes en relación a las finalidades para las que se hayan obtenido.

El Ministerio de Justicia y Derechos Humanos (MINJUSDH), a través de la ANPD, continúa comprometido en su rol como institución garante de la protección de los datos personales en el Perú. Los ciudadanos que consideren que sus datos personales han sido vulnerados pueden presentar una denuncia a través de la Mesa de Partes presencial o virtual (https://sgd.minjus.gob.pe/sgd-virtual/public/ciudadano/ciudadanoMain.xhtml) o contactarnos mediante el teléfono 204-8020 anexo 2410.

Resolución Directoral N.° PAS: Banco de Crédito del Perú (EXP. 122-2023): https://acortar.link/yPh3mI