Eres una adolescente en 2026. Vas de excursión. Estás en la playa. Te arreglas para el baile de bienvenida, posas con tus amigas y disfrutas de esos momentos que los estudiantes de secundaria llevan décadas inmortalizando sin incidentes.
Estos son el tipo de recuerdos entrañables que han quedado arruinados para siempre para las tres mujeres no identificadas de Tennessee que forman parte de una demanda colectiva presentada en marzo contra xAI, la empresa de inteligencia artificial de Elon Musk.
Una persona conocida por al menos una de estas tres chicas utilizó el asistente de xAI, Grok, para generar imágenes sexualmente explícitas que parecían ser ellas mismas, basándose en fotos reales en las que aparecían vestidas. La demanda contra la demandante Jane Doe 1 alega que las imágenes manipuladas “mostraban su cuerpo entero, incluyendo sus genitales, completamente desnudo. El video la mostraba desnudándose hasta quedar totalmente desnuda”. Estas escenas se crearon, en parte, utilizando el rostro de esta adolescente de su foto del anuario.
La cosa empeora. El autor presuntamente distribuyó fotos manipuladas de al menos 18 menores de edad en Discord, una popular plataforma de mensajería. Sus nombres y el nombre de su escuela aparecen junto a las imágenes, lo que permite identificarlas.
Las tres víctimas, identificadas como Jane Doe 1, han sufrido un estrés extremo a causa de esta victimización. Según la demanda, Jane Doe 1 «siente una ansiedad intensa por saber quién ha visto estos archivos en línea y una total falta de control sobre su continua difusión».
La demanda describe las vidas afectadas por este daño. Dos de las víctimas, identificadas como Jane Doe, temen realizar actividades cotidianas como ir a clase a consecuencia de este abuso, y las tres afirman que su reputación se ve perjudicada cuando la gente cree que estas imágenes son reales. Si bien esta demanda se centra en las víctimas femeninas, los adolescentes varones también han sufrido acoso y extorsión mediante deepfakes generados por inteligencia artificial.
En enero, señalé que la opinión pública se estaba volviendo en contra de las redes sociales y las empresas de IA, en parte debido al contenido sexual ilegal que Grok parecía estar generando a gran escala. Según una investigación del Centro para la Lucha contra el Odio Digital, un grupo defensor de la seguridad en línea, durante un período de 11 días entre finales de diciembre y principios de enero, se estima que Grok generó aproximadamente tres millones de imágenes sexualizadas, incluidas 23.000 que parecen representar a menores.
Posteriormente, Grok limitó sus capacidades de generación de imágenes a clientes de pago y añadió otras medidas de seguridad, como impedir que la cuenta X del generador de imágenes publicara fotos de personas reales en bikini . Aun así, muchos críticos consideraron que esto no solucionaba el problema del abuso sexual, sino que simplemente permitía a la empresa lucrarse con una crisis de relaciones públicas, aparentando poner un parche a la situación.
La creación de material de abuso sexual infantil (CSAM, por sus siglas en inglés) por parte de particulares ya es ilegal, pero en marzo un jurado de Nuevo México declaró a Meta responsable con una multa de 375 millones de dólares por engañar a los usuarios sobre sus prácticas de seguridad y por no proteger a sus jóvenes usuarios de los depredadores sexuales. Anteriormente, las empresas de redes sociales podían eludir la responsabilidad por su papel en la difusión de estas imágenes amparándose en el artículo 230 de la Ley de Decencia en las Comunicaciones de 1996, que, como explicó mi colega de redacción Cecilia Kang , «las exime de responsabilidad por lo que publican sus usuarios».
El Congreso no ha logrado ponerse de acuerdo para reformar esta ley, por lo que los abogados han tenido que presentar demandas en tribunales estatales que experimentan con estrategias innovadoras para obtener justicia para los niños. El fiscal general de Nuevo México, Raúl Torrez, identificó los algoritmos creados por las empresas de redes sociales, los cuales son independientes de las publicaciones individuales de los usuarios.
“Lo que no está cubierto por la Sección 230 son las características de diseño integradas en el producto que lo hacen inherentemente peligroso”, dijo Torrez. Añadió: “Las plataformas son muy buenas para conectar a las personas con aquello que les interesa, y si te interesan las niñas pequeñas, la plataforma te pondrá en contacto con ellas”.
La demanda colectiva presentada en nombre de las jóvenes de Tennessee, identificadas como Jane Doe, argumenta que Grok es co-creadora de las imágenes, ya que estas no existirían sin dicha herramienta, según declaró Vanessa Baehr-Jones, una de las abogadas de las jóvenes. Annika Martin, otra de sus abogadas, espera que la industria erradique el problema, pues los casos individuales no son suficientes.
Llevo dos años escribiendo sobre este tema: la creación de deepfakes con desnudos de menores . Podría decirse que la situación es mucho peor ahora que las herramientas de generación de imágenes con IA son omnipresentes y las imágenes que crean son aún más realistas. Si bien las empresas de redes sociales tal vez no puedan erradicar por completo el CSAM en sus plataformas, podrían priorizar mucho mejor el problema, afirmó Arturo Béjar, denunciante y exdirector de ingeniería del equipo de protección y atención de Facebook. Béjar, quien testificó para el estado en el caso de Nuevo México contra Meta, me comentó que las empresas de redes sociales pueden evitar que se cree y comparta gran cantidad de CSAM.
Para empezar, Béjar afirmó que «no se debería poder generar contenido erótico con la imagen de ninguna persona a menos que exista prueba fehaciente de que dicha persona ha dado su consentimiento de forma exhaustiva y demostrable». Esto debería aplicarse a usuarios de todas las edades. Béjar señaló que las empresas de redes sociales cuentan con herramientas increíblemente sofisticadas para etiquetar imágenes, y considera que estas empresas deberían utilizarlas para etiquetar adecuadamente las imágenes sexualmente explícitas. Hacerlo, en esencia, «eliminaría el mecanismo de distribución» que incentiva su difusión, aunque también podría reducir la interacción.
Si eres padre o madre, como mínimo, te recomiendo hablar con tus hijos sobre la existencia de inteligencia artificial con capacidad para desnudar. Hazles hincapié en que existe una comunicación abierta entre padres e hijos y que no tienen por qué avergonzarse si son víctimas. Si sospechas que tu hijo o hija, u otro niño, es víctima, puedes obtener ayuda del Centro Nacional para Niños Desaparecidos y Explotados (NCNC). Esta organización cuenta con una línea de denuncia cibernética y herramientas para eliminar imágenes de la circulación y para presentar denuncias ante las autoridades.
Realmente no debería ser responsabilidad de los padres vigilar toda la internet. Mientras escuchaba a Béjar hablar sobre las increíbles capacidades de ingeniería de todas estas empresas de redes sociales, no dejaba de pensar en cómo tantos ejecutivos de IA alardean del profundo y revolucionario poder de su tecnología para cambiar la humanidad, potenciar el trabajo e incluso curar el cáncer. Pero, de alguna manera, cuando se les pide que detengan la avalancha de material de abuso sexual, parecen tener las manos atadas.
Si las grandes tecnológicas no corrigen sus errores, demasiados depredadores seguirán impunes y demasiados menores sufrirán daños permanentes simplemente por existir en público. Accesorios como las gafas con inteligencia artificial permiten a cualquiera tomar fotografías y vídeos sin que las personas sean detectadas, lo que podría derivar en un acoso aún mayor del que ya presenciamos.
Ni siquiera hace falta encontrar una foto del anuario para humillar permanentemente a una adolescente que tiene la osadía de caminar por la calle tranquilamente. Todos deberíamos desear un mundo mejor para los niños.
