Meta, YouTube y TikTok buscan desesperadamente maneras de proteger la confianza de los usuarios, al tiempo que sus plataformas se llenan de fotos y videos generados por IA de eventos que nunca sucedieron.

Pero su combinación de herramientas imperfectas y políticas voluntarias a veces penaliza inadvertidamente al contenido "real" y deja mucha producción de IA sin etiquetar.

Por ejemplo, Nikolai Savic, estrella de TikTok, afirma que le han aplicado incorrectamente etiquetas "generado por IA" a muchos de sus videos populares de transiciones sorprendentes entre escenas dispares, provocando comentarios desdeñosos de algunos de sus 4.8 millones de seguidores.

Savic comentó que ocasionalmente recurre a la inteligencia artificial para pulir ciertos detalles, pero que por lo demás usa herramientas de edición estándar en un proceso minucioso que puede llevar varios días para cada clip.

"La gente ya tiene en la cabeza que sólo uso IA", dijo Savic. "Esto dañó muchísimo mi reputación. Y en TikTok, a nadie parece importarle".

Las plataformas tecnológicas más grandes han buscado etiquetar el contenido generado por IA desde poco después de que ChatGPT de OpenAI abrió las compuertas a fines del 2022, pero el esfuerzo se vuelve más urgente cada vez que herramientas como Midjourney o el nuevo Veo 3 de Google mejoran la calidad de las simulaciones con IA de fotos y videos. El temor es que los consumidores que descubran haber sido engañados por un anuncio, una publicación de un creador o un video noticioso con IA se vuelvan escépticos respecto al resto del contenido que ofrecen estas plataformas.

Sus iniciativas dejan lugar a errores u omisiones. Meta, propietaria de Facebook e Instagram, introdujo este año una opción para que algunos anunciantes revelen cuando han utilizado herramientas de IA generativa de otras empresas como OpenAI para crear o editar sus anuncios.

"Continuaremos evolucionando nuestro enfoque para etiquetar el contenido generado por IA en colaboración con expertos, anunciantes, partes interesadas y socios del sector a medida que evolucionen las expectativas de los usuarios y la tecnología de IA", dijo Meta al anunciar la política.

Mientras tanto, el trabajo de IA sin divulgación continúa circulando libremente.

Kalshi, la startup de mercado de predicciones que permite apostar en eventos de actualidad y cultura pop, publicó un anuncio en YouTube TV durante las Finales de la NBA en junio, generado íntegramente con Veo 3, dijo un vocero de Kalshi. El anuncio, que muestra a una serie de jugadores entusiasmados con sus apuestas, costó 2 mil dólares y ha acumulado 19 millones de visualizaciones, dijo el portavoz. Pero no estaba etiquetado como IA.

Un anuncio generado por Veo para la marca de multivitaminas Ritual muestra una pequeña y breve marca de agua que lo identifica como generado por IA cuando aparece en YouTube, pero no en LinkedIn ni Instagram.

El juego del etiquetado

TikTok fue una de las primeras empresas en intentar abordar el asunto en el 2023, desarrollando una herramienta para detectar y etiquetar automáticamente contenido generado por IA, así como un botón que permite a los creadores revelar su propio uso de herramientas de IA de terceros.

Otras han ofrecido sus propias fórmulas, ajustándolas según evolucionan los acontecimientos.

El año pasado, Meta actualizó sus etiquetas "info de IA" para identificar y distinguir entre contenido creado con IA y contenido sólo modificado por herramientas de IA de otras empresas, en parte para responder a reclamos de algunos creadores de que su trabajo había sido etiquetado incorrectamente. Meta también etiqueta automáticamente cualquier contenido creado con sus propias herramientas de IA.

Google afirma que adjunta automáticamente pequeñas marcas de agua visuales a casi todo el contenido creado con su aplicación Gemini, que incluye Veo. Este contenido también incluye identificadores de metadatos digitales que permiten etiquetarlo automáticamente como IA. Sin embargo, el anuncio de Kalshi parece haberse publicado sin marcas visuales, y están exentos los videos creados con una herramienta de Gemini dirigida a cineastas.

Desde principios del año pasado, la política de YouTube de Google exige a los creadores revelar el uso de IA en cualquier contenido que los espectadores puedan confundir con contenido real. YouTube sólo exige a los anunciantes políticos que revelen su uso de IA, ya que los anuncios generales generados con IA no infringen inherentemente las políticas publicitarias diseñadas para prevenir daños a los consumidores, dijo un portavoz de YouTube.

La mayoría de los contratos de mercadotecnia con creadores de marcas prohíben el uso de IA generativa para evitar perder la confianza de los fans, afirmó Dana Neujahr, directora administrativa de We Are Social, una empresa de redes sociales e influencers.

Sin embargo, los videos de TikTok de un cliente de We Are Social han recibido etiquetas automáticas de IA tras haber usado una herramienta de IA para añadir subtítulos, añadió Neujahr. "Un neófito o alguien que no esté en esta industria podría entonces pensar que todo este contenido fue generado por IA", indicó.

Es posible que, al menos en parte, las empresas de redes sociales hayan desarrollado estos conjuntos de herramientas de etiquetado de IA para anticiparse a cualquier controversia o inquietud regulatoria relacionada con el contenido de IA, afirmó Neujahr.

La industria tecnológica ha intentado abordar la necesidad de transparencia de forma colectiva e integral.

Un consorcio llamado Coalición para la Procedencia y Autenticidad del Contenido (C2PA) ofrece credenciales estandarizadas que tanto particulares como empresas pueden usar para indicar si su contenido es generado por IA.

Por ejemplo, LinkedIn dice mostrar el logotipo de la coalición -en el que los usuarios pueden hacer clic para obtener más información- en cualquier imagen o video subido con esas credenciales.

OpenAI apoya la iniciativa de la coalición, aunque también advierte que sus metadatos "no son una bala de plata".

"Se puede eliminar fácilmente, ya sea accidental o intencionalmente", afirma OpenAI en su sitio web, señalando que las plataformas de redes sociales con frecuencia eliminan los metadatos de las imágenes subidas y que las capturas de pantalla no los registran.

Las credenciales ofrecidas por C2PA son una idea bien intencionada que tendrá dificultades para ser efectiva contra las grandes cantidades de contenido de IA, de fuentes tanto confiables como engañosas, que están surgiendo en los canales de las redes sociales, señaló Matthew Stamm, profesor y director del Laboratorio de Seguridad de la Información y Multimedia en la Universidad de Drexel.