Meta etiquetará imágenes generadas por IA de OpenAI, Google y otras empresas

Meta Platforms comenzará a detectar y etiquetar imágenes generadas por los servicios de inteligencia artificial de otras compañías en los próximos meses, utilizando un conjunto de marcadores invisibles integrados en los archivos, dijo el martes su principal ejecutivo de políticas.

Meta aplicará las etiquetas a cualquier contenido que lleve los marcadores publicado en sus servicios Facebook, Instagram y Threads, en un esfuerzo por indicar a los usuarios que las imágenes, que en muchos casos se parecen a fotos reales, son en realidad creaciones digitales, dijo el presidente de global de la compañía. asuntos, Nick Clegg, escribió en una publicación de blog.

La empresa ya etiqueta cualquier contenido generado con sus propias herramientas de inteligencia artificial.

Una vez que el nuevo sistema esté en funcionamiento, Meta hará lo mismo con las imágenes creadas en servicios ejecutados por OpenAI, Microsoft, Adobe, Midjourney, Shutterstock y Google de Alphabet, dijo Clegg.

El anuncio ofrece una visión temprana de un sistema emergente de estándares que las empresas de tecnología están desarrollando para mitigar los daños potenciales asociados con las tecnologías de inteligencia artificial generativa, que pueden generar contenido falso pero de apariencia realista en respuesta a indicaciones simples.

El enfoque se basa en un modelo establecido durante la última década por algunas de las mismas empresas para coordinar la eliminación de contenido prohibido en todas las plataformas, incluidas representaciones de violencia masiva y explotación infantil.

Tecnología para etiquetar audio y vídeo aún en desarrollo

En una entrevista, Clegg dijo a Reuters que confiaba en que las empresas podrían etiquetar imágenes generadas por IA de manera confiable en este momento, pero dijo que las herramientas para marcar contenido de audio y video eran más complicadas y aún se estaban desarrollando.

“Aunque la tecnología aún no está completamente madura, particularmente cuando se trata de audio y video, la esperanza es que podamos crear una sensación de impulso e incentivo para que el resto de la industria la siga”, dijo Clegg.

VER | Cómo se pueden utilizar los vídeos generados por IA como arma en las elecciones:

¿Puedes detectar el deepfake? Cómo la IA amenaza las elecciones

Los videos falsos generados por IA se utilizan para estafas y chistes en Internet, pero ¿qué sucede cuando se crean para interferir en las elecciones? Catharine Tunney, de CBC, analiza cómo se puede convertir la tecnología en un arma y analiza si Canadá está preparado para unas elecciones ultrafalsas.

Mientras tanto, añadió, Meta comenzaría a exigir a las personas que etiqueten su propio contenido de audio y vídeo alterado y aplicaría sanciones si no lo hicieran. Clegg no describió las sanciones.

Añadió que actualmente no existe ningún mecanismo viable para etiquetar el texto escrito generado por herramientas de inteligencia artificial como ChatGPT.

“Ese barco ya zarpó”, dijo Clegg.

Un portavoz de Meta se negó a decir si la compañía aplicaría etiquetas al contenido generativo de IA compartido en su servicio de mensajería cifrada WhatsApp.

La junta de supervisión independiente de Meta reprendió el lunes la política de la compañía sobre videos manipulados de manera engañosa, diciendo que era demasiado limitada y que el contenido debería etiquetarse en lugar de eliminarse. Clegg dijo que en términos generales estaba de acuerdo con esas críticas.

La junta tenía razón, dijo, al afirmar que la política existente de Meta “simplemente no es adecuada para su propósito en un entorno en el que habrá mucho más contenido sintético y contenido híbrido que antes”.

Citó la nueva asociación de etiquetado como evidencia de que Meta ya estaba avanzando en la dirección propuesta por la junta.

Leave a Reply

Your email address will not be published. Required fields are marked *