Porno deepfake: qué hacer a continuación si alguien te hace uno

Cuando se falsifican imágenes explícitas de Taylor Swift recientemente comenzó a volverse viral en X (anteriormente Twitter)la plataforma finalmente eliminó la cuenta del autor original, luego hizo que el nombre de la estrella del pop fuera inescrutableaunque ciertos términos de búsqueda aún aparecían en el contenido pornográfico.

En resumen, X no sabía cómo mantener las imágenes fuera de su plataforma. Esto no augura nada bueno para la persona promedio que se convierte en víctima de una imagen o video deepfake no consensuado.

Después de todo, si las plataformas de redes sociales no pueden proteger a una de las personas más famosas del mundo del abuso de los deepfake, ciertamente no garantizan la seguridad de los usuarios desconocidos, que no pueden apoyarse en abogados, publicistas y una base de fans fervientes en busca de ayuda. .

Adam Dodge, abogado autorizado y fundador de Poner fin al abuso facilitado por la tecnología (EndTAB)dice que la falta de salvaguardias, regulación y protección legal sólida coloca a las víctimas, que siempre son mujeres, en la posición de gestionar las consecuencias de imágenes y videos deepfake, explícitos o pornográficos no consensuados que presentan su imagen.

Dodge sostiene que cargar a una persona ya traumatizada con estas tareas sólo magnifica la violación que ha experimentado. Pero desafortunadamente, hacerlo uno mismo es actualmente la principal forma de manejar el abuso de deepfakes.

Si te conviertes en víctima de abuso de deepfake, aquí tienes seis pasos que puedes seguir para protegerte:

1. Reconocer el daño del abuso de deepfake.

Dodge dice que las víctimas pueden escuchar que la pornografía deepfake realmente no las daña porque las imágenes o los videos no son reales. Insta a las víctimas a no creer en ese razonamiento.

En cambio, enmarca el abuso basado en imágenes de IA como una forma de violencia, particularmente contra las mujeres. Las imágenes y vídeos falsos pueden dañar la reputación y las perspectivas profesionales de una mujer y ser utilizados por extraños para acosarla e intimidarla en línea y fuera de línea. Lidiar con su expulsión también es agotador y emotivo. En otras palabras, considerar este tipo de abuso contra las mujeres como parte de un espectro de violencia que conduce a un trauma real.

Antes de que una víctima comience el arduo proceso de lidiar con los deepfakes, Dodge recomienda que se tome un momento para darse cuenta de que lo sucedido no es culpa suya y validar lo que está experimentando.

“Reconocer el daño es realmente importante para la víctima, y ​​para las personas que la apoyan, y para las personas que crean y comparten estas cosas, para que comprendan que es un acto profundamente violento y dañino”.

También hay recursos para ayudar a apoyar a las víctimas. El con sede en EE.UU. Iniciativa de derechos civiles cibernéticos tiene una línea de ayuda sobre abuso de imágenes, junto con una guía detallada sobre qué hacer una vez que se ha convertido en víctima. En el Reino Unido, las víctimas pueden recurrir a la Línea de ayuda para la pornografía de venganzaque ayuda a las víctimas de abuso de imagen íntima.

2. Reúna evidencia documentando el contenido.

Actualmente, Dodge dice que la mayoría del abuso basado en imágenes de IA ocurre principalmente a través de dos medios.

Un tipo se perpetra a través de aplicaciones que permiten a los usuarios tomar una imagen existente de alguien y convertirla en un desnudo falso utilizando el algoritmo impulsado por inteligencia artificial de la aplicación.

El segundo tipo de abuso lo generan las aplicaciones de intercambio de rostros deepfake, que pueden superponer el rostro de alguien a una imagen o video pornográfico preexistente. Aunque es falso, la imagen o el vídeo resultante es sorprendentemente realista.

Un tipo cada vez mayor de abuso se remonta a los generadores de imágenes y texto, que son capaces de convertir mensajes de texto en imágenes falsas de desnudos o explícitas. (Mashable no publica los nombres de estas aplicaciones debido a preocupaciones sobre una mayor publicidad para los perpetradores).

Independientemente del formato utilizado, las víctimas deben hacer todo lo posible para documentar cada caso de abuso basado en imágenes de IA mediante capturas de pantalla o guardando archivos de imágenes y videos. Estas capturas de pantalla o archivos se pueden utilizar en solicitudes de eliminación y acciones legales, cuando sea posible. Para obtener una guía paso a paso para documentar pruebas, revise la guía de la Iniciativa de Derechos Civiles Cibernéticos.

Aún así, reunir esta evidencia puede traumatizar aún más a las víctimas, razón por la cual Dodge recomienda que consigan la ayuda de un “círculo de apoyo” para hacer este trabajo.

“Si (las víctimas) necesitan denunciarlo, tener pruebas es realmente fundamental”, dice Dodge.

3. Emitir avisos de eliminación a las plataformas donde aparece el contenido.

Las plataformas de redes sociales permiten a las personas informar cuando un usuario ha publicado en línea imágenes suyas no consensuadas. Históricamente, estas solicitudes de eliminación se han utilizado para ayudar a las víctimas cuyas imágenes íntimas reales se compartieron sin permiso. Pero Dodge dice que las víctimas de abuso basado en imágenes de IA también pueden utilizar esta herramienta.

Cada plataforma tiene su propio proceso. Para obtener una lista completa de las políticas de eliminación en línea de las principales aplicaciones, plataformas de redes sociales y sitios de citas, consulte el Guía de la Iniciativa Cibernética de Derechos Civiles.

Dodge también recomienda la herramienta gratuita ofrecida por ParadaNCII.org, una organización sin fines de lucro que apoya a las víctimas de abuso de imagen íntima no consensuada. La herramienta de la organización permite a las víctimas seleccionar una imagen o un video suyo que haya sido compartido sin su consentimiento y genera de forma independiente una huella digital, o hash, como una forma de marcar ese contenido. El usuario no tiene que subir la imagen o el vídeo en sí, por lo que nunca sale de posesión de la víctima.

Luego, la organización comparte el hash con sus socios, que incluyen empresas como Facebook, Reddit y TikTok. A su vez, sus socios están preparados para detectar contenido que coincida con la huella digital generada. La empresa elimina las coincidencias dentro de su plataforma, según sea necesario.

4. Realizar solicitudes para desindexar imágenes y vídeos de los motores de búsqueda.

Bing y Google permiten a las personas enviar solicitudes para desindexar imágenes y vídeos pornográficos falsos y no consensuados de sus resultados de búsqueda. Dodge recomienda que las víctimas utilicen esta estrategia para limitar la visibilidad del abuso basado en imágenes de IA.

El proceso paso a paso de Google puede ser encontrado aquí. Instrucciones para el mismo proceso en Bing están aquí.

Es importante realizar estas solicitudes específicamente para cada empresa. Este mes, NBC News encontró que los resultados de búsqueda de Google y Bing mostraron pornografía deepfake no consensuada en respuesta a ciertas consultas, lo que generó dudas sobre la frecuencia con la que las empresas patrullaban sus índices en busca de dicho contenido para eliminarlo.

5. Investigue sus opciones legales.

En 2021, más de una docena de estados, incluidos California, Texas y Nueva York, tenían leyes relacionadas con imágenes deepfake, según el Iniciativa de derechos civiles cibernéticos. Si vive en un estado con leyes que prohíben la creación de pornografía deepfake o abuso basado en imágenes de IA, es posible que pueda presentar un informe policial o demandar al perpetrador. Internacionalmente, Compartir porno deepfake se ha convertido en un delito en Inglaterra y Gales.

Incluso en los muchos estados de EE. UU. que no prohíben este tipo de abuso, Dodge dice que existen otras leyes relacionadas que pueden aplicarse al caso de una víctima, incluido el acoso cibernético, la extorsión y la pornografía infantil.

Aún así, Dodge dice que muchos departamentos de policía no están preparados y carecen de los recursos y el personal para investigar estos casos, por lo que es importante gestionar las expectativas sobre lo que es posible. Además, algunas víctimas, en particular aquellas que ya están marginadas de alguna manera, pueden optar por no denunciar a las autoridades los deepfakes no consensuados por diversas razones, incluida la falta de confianza en las fuerzas del orden.

6. Opte por no participar en los sitios de intermediarios de datos.

Dodge dice que las víctimas de imágenes íntimas no consensuadas a veces son atacadas por extraños en línea, si su información personal se conecta con el contenido.

Incluso si esto no ha sucedido todavía, Dodge recomienda excluirse de los sitios de intermediarios de datos que recopilan su información personal y la venden a cualquier persona pagando una tarifa. Dichos corredores incluyen empresas como Spokeo, PeekYou, PeopleSmart y BeenVerified. Las víctimas tendrán que acudir a cada corredor para solicitar la eliminación de su información personal, aunque un servicio como DeleteMe puede monitorear y eliminar dichos datos pagando una tarifa. DeleteMe cobra un mínimo de $129 por una suscripción anual, que escanea y elimina información personal cada tres meses.

Google también tiene una herramienta gratuita para eliminar cierta información personal de sus resultados de búsqueda.

Dada la rápida proliferación de las herramientas de imágenes impulsadas por IA, Dodge no puede imaginar un futuro sin imágenes explícitas no consensuadas generadas por IA.

Incluso hace unos años, cometer tales abusos requería potencia informática, tiempo y experiencia técnica, señala. Ahora estas herramientas son de fácil acceso y uso.

“No podríamos hacerlo más fácil”, dice Dodge.

Leave a Reply

Your email address will not be published. Required fields are marked *