La diputada Gisela Marziotta presentó un proyecto de ley para crear una acción de amparo especial que permita a cualquier persona reclamar en 24 horas el retiro de imágenes o contenidos falsos generados por inteligencia artificial.
La diputada nacional Gisela Marziotta (UP) presentó un proyecto de ley que propone la creación de una acción de amparo especial destinada a proteger el derecho a la imagen frente al uso indebido de tecnologías de inteligencia artificial (IA), particularmente en los casos de los llamados deepfakes o “contenidos ultrafalsos”.
La iniciativa busca establecer un mecanismo judicial rápido y específico, para que cualquier persona afectada —o sus representantes o herederos— pueda solicitar la eliminación inmediata de imágenes, videos, audios o contenidos digitales falsos que vulneren su dignidad, reputación o privacidad.
Según el texto, los jueces deberán resolver el pedido en un plazo máximo de 24 horas, incluso durante días inhábiles, y podrán ordenar el bloqueo, retiro o desindexación del contenido cuestionado hasta dictar sentencia definitiva. En caso de incumplimiento, se prevén multas diarias y la posibilidad de suspender temporalmente las operaciones de la plataforma responsable.
El proyecto define como “contenido ultrafalso” aquel que imita o reproduce de forma realista la imagen o voz de una persona sin su consentimiento, y aclara que las medidas sólo procederán cuando se afecten manifiestamente derechos personalísimos y no exista un interés público legítimo en su difusión.
En los fundamentos, Marziotta advierte que las herramientas de IA capaces de generar contenidos sintéticos “plantean un desafío jurídico y ético de gran magnitud” y pueden ocasionar “daños inmediatos e irreparables”. Menciona, entre los casos más graves, la manipulación de imágenes en el marco de campañas electorales, las fake news o el denominado “porno venganza”.
“El proyecto no crea un nuevo derecho, sino que refuerza los ya consagrados en el Código Civil y Comercial —como la identidad, la imagen y la dignidad humana— frente a un contexto tecnológico inédito”, sostiene la autora, que además cita antecedentes recientes en Estados Unidos y Europa que avanzan en la misma dirección.
De aprobarse, la norma establecería un procedimiento ágil y gratuito para frenar la difusión de contenidos digitales manipulados, adaptando la figura del amparo a los desafíos que plantea la inteligencia artificial.
El diputado del Pro presentó un proyecto para modificar la Ley Olimpia e incorporar como delito la creación y difusión de imágenes íntimas falsas mediante IA. “Hay que cerrar la zona gris jurídica que deja indefensas a las víctimas”, argumentó.
El diputado nacional Gerardo Milman (Pro) presentó un proyecto de ley para modificar la denominada Ley Olimpia (N.º 27.736) con el objetivo de incorporar de manera expresa el uso de inteligencia artificial (IA) como una modalidad de violencia digital de género. La iniciativa apunta a cerrar un vacío legal frente a la creciente circulación de “deepfakes” sexuales no consentidos.
“El desarrollo acelerado de herramientas de inteligencia artificial generativa —tales como deepfakes, face swapping, voice cloning— ha posibilitado la creación de imágenes, videos y audios falsos altamente realistas que pueden simular a una persona en escenas íntimas o sexuales sin que ésta haya participado ni consentido”, advierte Milman en los fundamentos.
La propuesta busca tipificar como delito “la creación y difusión no consentida de imágenes sexuales generadas o manipuladas mediante IA”, extendiendo la protección también a personas mayores de edad, un punto que actualmente no contempla la ley vigente. “Hay que suplir un vacío legal respecto a la producción y distribución de imágenes adulteradas, sean reales o ficticias, que atentan contra la integridad de las mujeres”, señaló.
El texto detalla que la violencia digital incluirá conductas como la reproducción y difusión de material íntimo generado con técnicas de IA o cualquier otro medio tecnológico sin consentimiento, así como discursos de odio misóginos, acoso virtual, robo y difusión no autorizada de datos personales.
Casos recientes en Argentina
Milman citó antecedentes judiciales que expusieron la ausencia de normas específicas. Uno de ellos ocurrió en San Juan, donde un joven fue denunciado por crear “desnudos” con IA a partir de fotos de compañeras universitarias y comercializarlas en sitios para adultos. “Ninguna de las damnificadas había prestado su consentimiento y la Justicia no pudo tipificar la conducta como delito”, remarcó el legislador.
Asimismo, mencionó fallos de la Cámara de Apelaciones de Zárate–Campana y de la Justicia cordobesa que, aunque innovadores, dejaron en evidencia la necesidad de una regulación clara sobre imágenes falsas creadas con inteligencia artificial.
Antecedentes internacionales
El diputado recordó que otros países ya avanzaron en este sentido. “España incluyó en su Ley Orgánica 10/2022 la difusión de imágenes generadas digitalmente sin consentimiento como delito contra la libertad sexual; el Reino Unido también penaliza los deepfakes pornográficos sin consentimiento en su Online Safety Act 2023”, subrayó.
Por estas razones, Milman pidió el acompañamiento de sus pares para “adecuar la legislación sustantiva y proteger a las mujeres de una nueva forma de abuso digital”.