Este artículo es real, pero los deepfakes generados por IA parecen muy parecidos y están estafando a la gente.

¿Qué tan sorprendente es que celebridades canadienses como la chef de televisión Mary Berg, el cantante Michael Bublé, el comediante Rick Mercer y la megaestrella del hockey Sidney Crosby finalmente estén revelando sus secretos para el éxito financiero? Es decir, hasta que el Banco de Canadá intentó detenerlos.

Nada de eso es cierto, por supuesto, pero fue la bolsa figurada de frijoles mágicos que los aparentes estafadores en las redes sociales intentaron vender a la gente, incitando a los usuarios a hacer clic en publicaciones sensacionales (Berg arrestado, Bublé siendo arrastrado) y llevándolos a lo que parece, a primera vista, una noticia legítima en el sitio web de CTV News.

Si está aún más intrigado por lo que parece ser un artículo generado por IA, tendrá amplia oportunidad de hacer clic en los numerosos enlaces (alrededor de 225 en una sola página) que lo dirigen a registrarse y entregar su primera inversión de $ 350, que supuestamente se multiplicará por más de 10 en solo siete días.

Estos fueron solo los últimos de una serie de anuncios, artículos y videos deepfake que explotan los nombres, imágenes, metraje e incluso voces de canadienses prominentes para promover inversiones o esquemas de criptomonedas.

Los abogados con experiencia en contenido deepfake y generado por IA advierten que actualmente tienen pocos recursos legales y que las leyes canadienses no han avanzado tan rápido como la tecnología misma.

Las estafas financieras y los esquemas que se apropian de imágenes de personas famosas no son nada nuevo, pero el uso de la tecnología de IA generativa que avanza rápidamente le da “un nuevo giro a un concepto bastante antiguo”, dijo la abogada Molly Reynolds, socia de Torys LLP en Toronto.

Y va a empeorar antes de mejorar. Desarrollar herramientas y leyes para evitar que esto suceda es un juego de recuperación que ya estamos perdiendo, afirmó.

ESCUCHAR | Lo que debes saber sobre los anuncios deepfake en las redes sociales:

Mañana informativa – NS7:01Implicaciones de los anuncios fraudulentos profundamente falsos

Probablemente los hayas visto si pasas algún tiempo en línea. Anuncios que muestran a un presentador de CBC, o a una personalidad como Elon Musk, pagando un chelín por algún tipo de plan para hacerse rico rápidamente. Caen en la categoría de “deep fakes” o vídeos generados por IA. Nuestro columnista tecnológico Nur Zincir-Heywood analiza esto.

Detectando deepfakes

Si bien hay una gran cantidad de contenido en Internet que tiene signos obvios de haber sido generado por IA, el profesor de informática de la Universidad de Ottawa, WonSook Lee, dijo que algunos de ellos son tan buenos ahora que cada vez es mucho más difícil discernir qué es real.

Dijo que incluso hace un par de años podía detectar inmediatamente una imagen generada por IA o un video falso de una persona con solo mirarlo y notar diferencias en pixelación o composición. Pero algunos programas ahora pueden crear fotografías y vídeos casi perfectos.

Lo que no se genera perfectamente se puede modificar aún más con software de edición de fotografías y vídeos, añadió.

Si bien aprendemos sobre la IA, también se vuelve más inteligente.

“Si encontramos un método para detectar deepfakes, ayudaremos a que los deepfakes mejoren”, afirmó.

MIRAR | Ian Hanomansing, del National, aborda los deepfakes de sí mismo:

Cualquiera puede ser falsificado en un anuncio fraudulento. Incluso Ian Hanomansing

Los estafadores están recurriendo a falsificaciones de figuras públicas confiables para robar su dinero a través de anuncios falsos en línea. Ian Hanomansing del Nacional se encuentra entre ellos. Descubrió lo que dice la ley y lo que las empresas de redes sociales están haciendo al respecto.

Poder de las estrellas

Parece que X ha reducido hasta cierto punto el enjambre de anuncios fraudulentos de celebridades canadienses y ha suspendido algunas (pero no todas) las cuentas que los comparten. CBC News intentó contactar a un portavoz de X Corp., la empresa matriz de la plataforma de redes sociales, pero solo recibió una respuesta automática.

X y otras empresas de alojamiento de sitios web y redes sociales pueden tener políticas destinadas a prevenir el spam y las estafas financieras en sus plataformas. Pero Reynolds dijo que enfrentan una “cuestión de obligaciones morales versus obligaciones legales”.

Esto se debe a que no existen muchas obligaciones legales que impulsen a las plataformas a eliminar materiales fraudulentos, dijo.

“Hay personas que se ven profundamente afectadas sin ningún recurso legal, sin ayuda de las empresas tecnológicas y tal vez sin una gran red social en la que confiar como lo ha hecho Taylor Swift”, dijo Reynolds.

Después de todo, los canadienses prominentes no ejercen tanta influencia como Taylor Swift. Si lo hicieran, tal vez la historia se desarrollaría de manera diferente.

La rápida propagación de imágenes sexualizadas generadas por IA de la superestrella de la música pop el mes pasado llevó a las empresas de redes sociales a tomar medidas casi inmediatas. Incluso la Casa Blanca intervino.

X eliminó rápidamente las imágenes y bloqueó las búsquedas del nombre de Swift. En cuestión de días, los legisladores estadounidenses presentó un proyecto de ley para combatir este tipo de pornografía deepfake.

MIRAR | Papel de las empresas de redes sociales para detener la proliferación de deepfakes sexualizados:

La Casa Blanca está ‘alarmada’ por las imágenes explícitas de Taylor Swift generadas por IA en las redes sociales

La portavoz de la Casa Blanca de Estados Unidos, Karine Jean-Pierre, respondió a una pregunta de un periodista sobre imágenes falsas y explícitas de Taylor Swift generadas por inteligencia artificial que se difunden en las redes sociales, diciendo que las empresas de redes sociales tienen un papel claro en la aplicación de políticas para prevenir ese tipo de material. de ser distribuido a través de sus plataformas.

Pero Reynolds dijo que no son sólo las situaciones que involucran imágenes sexualizadas y no consensuadas las que pueden causar daño, especialmente cuando se trata de personas cuyos nombres y rostros son sus marcas.

CBC News solicitó entrevistas con Berg y Mercer para preguntarles si alguno de ellos había tomado alguna medida en respuesta a los anuncios falsos que se apropiaban de sus imágenes. Mercer se negó a ser entrevistado para esta historia. El publicista de Berg envió la solicitud a la empresa matriz de CTV, Bell Media, que la rechazó.

ESCUCHAR | ¿Qué impacto tendrán los deepfakes de Taylor Swift en las leyes de IA?

13:52¿Los deepfakes de IA de Taylor Swift finalmente harán que los gobiernos tomen medidas?

La semana pasada, imágenes explícitas generadas por IA de la imagen de Taylor Swift se compartieron en X, anteriormente conocido como Twitter, sin su consentimiento. Estas fotos acumularon millones de visitas antes de ser eliminadas. Los reporteros Sam Cole y Melissa Heikkilä, que han estado siguiendo el aumento de los deepfakes durante años, hablan de por qué esta historia ha tocado la fibra sensible de Hollywood y Washington.

Nuevo panorama jurídico

Si alguien es famoso es irrelevante si su imagen se utiliza de una manera que usted no ha consentido, dijo Pablo Tseng, abogado con sede en Vancouver especializado en propiedad intelectual en McMillan LLP.

“Usted tiene el control de cómo debe presentarse”, dijo Tseng, socio de McMilllan LLP. “La ley seguirá viendo esto como un mal cometido contra usted. Por supuesto, la pregunta es: ¿Cree que vale la pena llevar esto ante los tribunales?”

Canadá no ha seguido el ejemplo de Estados Unidos en cuanto a la nueva legislación para los deepfakes, pero existen algunos daños (leyes en su mayoría establecidas por jueces en un esfuerzo por indemnizar a las personas que han sufrido delitos) que posiblemente podrían aplicarse en una demanda que involucre a la IA. generó deepfakes, según Tseng.

El agravio por apropiación indebida de la personalidad, dijo, podría aplicarse porque a menudo se trata de un caso en el que la imagen de alguien es manipulada digitalmente o injertada en otra imagen.

El agravio de falsa luz, que se refiere a tergiversar a una persona públicamente, es una opción más reciente que se basa en la ley estadounidense y fue reconocida por primera vez en Canadá en el Tribunal Superior. en 2019. Pero hasta ahora sólo ha sido reconocido en dos provincias (la otra es Columbia Británica).

MIRAR | Las consecuencias de falsificar fotografías de personas de alto perfil:

Cuando la falsificación de la IA nos engañó | Sobre eso

Andrew Chang analiza las consecuencias de falsificar fotografías de alto perfil después de que un par de imágenes recientes de IA se volvieran virales: el Papa con un abrigo acolchado y el arresto del ex presidente estadounidense Donald Trump.

Jugando a largo plazo

Cualquiera que quiera emprender cualquier tipo de acción legal por la producción y distribución de deepfakes tendrá que hacerlo a largo plazo, dijo Reynolds. Cualquier caso tomaría tiempo para ser tramitado en el sistema judicial, y probablemente resulte costoso.

Sin embargo, la lucha puede dar sus frutos.

Reynolds señaló una reciente demanda colectiva contra Meta sobre anuncios de “Historias patrocinadas” en Facebook, entre 2011 y 2014, que generaron respaldos utilizando nombres y fotos de perfil de usuarios para promocionar productos sin su consentimiento.

Meta propuso un acuerdo de 51 millones de dólares a los usuarios de Canadá el mes pasado. Los abogados estiman que 4,3 millones de personas cuyo nombre real o foto hayan sido utilizados en una historia patrocinada podrían calificar.

“No es una vía particularmente rápida para los individuos, pero puede ser más rentable cuando se presenta una demanda colectiva”, dijo Reynolds.

Pero la búsqueda de justicia o compensación también requiere saber quién es responsable de estas estafas ultrafalsas. Lee, de la Universidad de Ottawa, dijo que lo que ya es un desafío será casi imposible de lograr con mayores avances en la tecnología de IA generativa.

Gran parte de la investigación que se ha publicado sobre inteligencia artificial incluye código fuente de acceso abierto, explicó, lo que significa que cualquiera con los conocimientos puede crear su propio programa sin ningún tipo de marcador rastreable.

MIRAR | ¿Qué sucede cuando se utilizan deepfakes para interferir en las elecciones?

¿Puedes detectar el deepfake? Cómo la IA amenaza las elecciones

Los videos falsos generados por IA se utilizan para estafas y chistes en Internet, pero ¿qué sucede cuando se crean para interferir en las elecciones? Catharine Tunney, de CBC, analiza cómo se puede convertir la tecnología en un arma y analiza si Canadá está preparado para unas elecciones ultrafalsas.

Leave a Reply

Your email address will not be published. Required fields are marked *