Deepfakes porno: cómo hablar con tus hijos sobre imágenes falsas explícitas

Si el día aún no ha llegado, ya se acerca: debes hablar con tu hijo sobre los deepfakes explícitos.

El problema puede haber parecido abstracto hasta que aparecieron imágenes pornográficas falsas de Taylor Swift, generadas por inteligencia artificial. se volvió viral en la plataforma de redes sociales X/Twitter. Ahora el problema simplemente no se puede ignorar, dicen los expertos en seguridad infantil en línea.

“Cuando eso le sucede (a Swift), creo que los niños y los padres empiezan a darse cuenta de que nadie es inmune a esto”, dice Laura Ordoñez, editora ejecutiva y directora de medios digitales y familia de Common Sense Media.

Ya sea que esté explicando el concepto de deepfakes y el abuso basado en imágenes de IA, hablando sobre el dolor que dichas imágenes causan a las víctimas o ayudando a su hijo a desarrollar las habilidades de pensamiento crítico para tomar decisiones éticas sobre los deepfakes, hay muchas cosas que los padres pueden y deben cubrir. en conversaciones en curso sobre el tema.

Antes de comenzar, esto es lo que necesita saber:

1. No es necesario ser un experto en deepfakes para hablar de ellos.

Adam Dodge, fundador de El padre experto en tecnologíadice que los padres que sienten que necesitan comprender a fondo los deepfakes antes de conversar con sus hijos no deben preocuparse por parecer o convertirse en expertos.

En cambio, todo lo que se requiere es una comprensión básica del concepto de que el software y los algoritmos impulsados ​​por IA hacen que sea sorprendentemente fácil crear deepfakes realistas, explícitos o pornográficos, y que es fácil acceder a dicha tecnología en línea. De hecho, niños tan pequeños como estudiantes de escuela primaria pueden encontrar aplicaciones o software con esta capacidad y usarlos para crear deepfakes con pocos desafíos o barreras técnicas.

“Lo que les digo a los padres es: ‘Miren, deben comprender cuán temprano y con qué frecuencia los niños se exponen a esta tecnología, que sucede antes de lo que se dan cuenta y apreciar lo peligroso que es'”.

Dodge dice que los padres deben estar preparados para abordar las posibilidades de que su hijo sea el objetivo de la tecnología; que verán contenido inapropiado; o que participarán en la creación o el intercambio de imágenes explícitas falsas.

2. Conviértalo en una conversación, no en un sermón.

Si estás lo suficientemente alarmado por estas posibilidades, intenta evitar apresurarte a entablar una discusión apresurada sobre los deepfakes. En cambio, Ordoñez recomienda abordar el tema de forma abierta y sin prejuicios, preguntándole a su hijo qué sabe o ha oído sobre los deepfakes.

Añade que es importante pensar en el abuso basado en imágenes de IA como una forma de manipulación en línea que existe en el mismo espectro que la información errónea o la desinformación. En ese marco, reflexionar sobre los deepfakes se convierte en un ejercicio de pensamiento crítico.

Ordoñez dice que los padres pueden ayudar a su hijo aprender las señales de que las imágenes han sido manipuladas. Aunque la rápida evolución de la IA significa que algunos de estos signos reveladores ya no aparecen, Ordoñez dice que sigue siendo útil señalar que cualquier deepfake (no sólo el tipo explícito) puede ser identificable a través de la decoloración de la cara, una iluminación que parece apagada y una visión borrosa en las zonas donde se encuentran. el cuello y el cabello se encuentran.

Los padres también pueden aprender junto a sus hijos, dice Ordoñez. Esto podría implicar leer y hablar juntos sobre contenido falso no explícito generado por IA, como la canción Corazón en mi manga, lanzado en mayo de 2023, que afirmó utilizar versiones AI de las voces de Drake y The Weeknd. Si bien esa historia tiene relativamente poco en juego para los niños, puede generar una conversación significativa sobre cómo se sentiría que se usara su voz sin su consentimiento.

Los padres podrían tomar una prueba en línea con su hijo que le pide al participante que identifique correctamente qué cara es real y cuál es generada por IA, otra forma de bajo riesgo de confrontar juntos la facilidad con la que las imágenes generadas por IA pueden engañar al espectador.

El objetivo de estas actividades es enseñarle a su hijo cómo iniciar un diálogo continuo y desarrollar habilidades de pensamiento crítico que seguramente se pondrán a prueba cuando se encuentre con deepfakes explícitos y la tecnología que los crea.

3. Coloque la curiosidad de sus hijos sobre los deepfakes en el contexto adecuado.

Si bien los deepfakes explícitos equivalen a abuso digital y violencia contra su víctima, es posible que su hijo no lo comprenda completamente. En cambio, podrían sentir curiosidad por la tecnología e incluso estar ansiosos por probarla.

Dodge dice que si bien esto es comprensible, los padres habitualmente ponen límites razonables a la curiosidad de sus hijos. El alcohol, por ejemplo, se mantiene fuera de su alcance. Las películas con clasificación R están prohibidas hasta que alcancen cierta edad. No se les permite conducir sin la instrucción y la experiencia adecuadas.

Los padres deberían pensar en la tecnología deepfake de manera similar, dice Dodge: “No se quiere castigar a los niños por ser curiosos, pero si tienen acceso sin filtros a Internet y a inteligencia artificial, esa curiosidad los llevará por caminos peligrosos”.

4. Ayude a su hijo a explorar las consecuencias de los deepfakes.

Los niños pueden ver los deepfakes no explícitos como una forma de entretenimiento. Los preadolescentes y adolescentes pueden incluso creer incorrectamente el argumento de algunos: que los deepfakes pornográficos no son dañinos porque no son reales.

Aún así, se les puede persuadir a ver los deepfakes explícitos como un abuso basado en imágenes de IA cuando la discusión incorpora conceptos como consentimiento, empatía, amabilidad e intimidación. Dodge dice que invocar estas ideas mientras se habla de deepfakes puede hacer que un niño preste atención a la víctima.

Si, por ejemplo, un adolescente sabe que debe pedir permiso antes de quitarle un objeto físico a un amigo o compañero de clase, lo mismo ocurre con los objetos digitales, como fotos y videos publicados en las redes sociales. Usar esos archivos digitales para crear un deepfake desnudo de otra persona no es una broma o un experimento inofensivo, sino una especie de robo que puede provocar un profundo sufrimiento a la víctima.

De manera similar, Dodge dice que así como un joven no agrediría a alguien en la calle de la nada, no se alinea con sus valores agredir a alguien virtualmente.

“Estas víctimas no son inventadas ni falsas”, dice Dodge. “Estas son personas reales”.

Las mujeres, en particularha sido objetivo de la tecnología eso crea deepfakes explícitos.

En general, Ordoñez dice que los padres pueden hablar sobre lo que significa ser un buen ciudadano digital, ayudando a sus hijos a reflexionar sobre si está bien engañar a las personas, las consecuencias de los deepfakes y cómo ver o ser víctima de las imágenes podría hacer sentir a los demás.

5. Modele el comportamiento que desea ver.

Ordoñez señala que los adultos, incluidos los padres, no son inmunes a participar con entusiasmo en la última tendencia digital sin pensar en las implicaciones. Tomemos, por ejemplo, lo rápido que los adultos empezaron a hacer cosas interesantes. Autorretratos con IA usando la aplicación Lensa a finales de 2022. Más allá de las exageraciones, había preocupaciones importantes sobre la privacidad, los derechos de los usuarios y el potencial de la aplicación para robar o desplazar a los artistas.

Momentos como estos son un momento ideal para que los padres reflexionen sobre sus propias prácticas digitales y modelen el comportamiento que les gustaría que adoptaran sus hijos, dice Ordoñez. Cuando los padres hacen una pausa para pensar críticamente sobre sus elecciones en línea y comparten la experiencia de esa experiencia con sus hijos, demuestra cómo pueden adoptar el mismo enfoque.

6. Utilice controles parentales, pero no apueste por ellos.

Cuando los padres se enteran de los peligros que representan los deepfakes, Ordoñez dice que a menudo quieren una “solución rápida” para mantener a sus hijos alejados de las aplicaciones y el software que implementan la tecnología.

Es importante utilizar controles parentales que restrinjan el acceso a determinadas descargas y sitios, afirma Dodge. Sin embargo, esos controles no son infalibles. Los niños pueden encontrar y encontrarán una manera de sortear estas restricciones, incluso si no se dan cuenta de lo que están haciendo.

Además, Dodge dice que un niño puede ver deepfakes o encontrar la tecnología en la casa de un amigo o en el dispositivo móvil de otra persona. Por eso sigue siendo fundamental mantener conversaciones sobre el abuso basado en imágenes de la IA, “incluso si imponemos restricciones poderosas a través de controles parentales o retiramos los dispositivos por la noche”, dice Dodge.

7. Empoderar en lugar de asustar.

La perspectiva de que su hijo lastime a sus compañeros con un abuso basado en imágenes de IA, o que él mismo se convierta en víctima de ello, es aterradora. Pero Ordoñez advierte contra el uso de tácticas de miedo como una forma de disuadir a un niño o adolescente de interactuar con la tecnología y el contenido.

Al hablar con chicas jóvenes, en particular, cuyas fotos y vídeos de las redes sociales podrían usarse para generar deepfakes explícitos, Ordoñez sugiere hablar con ellas sobre cómo les hace sentir publicar imágenes de sí mismas y los riesgos potenciales. Estas conversaciones no deberían culpar a las niñas que quieren participar en las redes sociales. Sin embargo, hablar sobre los riesgos puede ayudar a las niñas a reflexionar sobre sus propios entornos de privacidad.

Si bien no hay garantía de que una foto o un video de ellos no se use en su contra en algún momento, pueden sentirse empoderados al tomar decisiones intencionales sobre lo que comparten.

Y todos los adolescentes pueden beneficiarse al saber que encontrarse con tecnología capaz de hacer deepfakes explícitos, en un período de desarrollo en el que son muy vulnerables a tomar decisiones precipitadas, puede conducir a decisiones que dañen gravemente a otros, dice Ordoñez.

Alentar a los jóvenes a aprender a dar un paso atrás y preguntarse cómo se sienten antes de hacer algo como hacer un deepfake puede marcar una gran diferencia.

“Cuando das un paso atrás, (nuestros niños) sí tienen esta conciencia, sólo hay que empoderarla, apoyarla y guiarla en la dirección correcta”, dice Ordoñez.

Leave a Reply

Your email address will not be published. Required fields are marked *