La inteligencia artificial ya permite generar imágenes sexuales falsas de personas reales con extrema facilidad. Casos recientes como el de Grok revelan que la tecnología avanza más rápido que la ley: en Argentina no hay una tipificación penal específica ni reglas claras para responsabilizar a quienes crean y difunden este tipo de contenidos.
La foto se sube como tantas otras. Una selfie frente al espejo, una imagen cuidada pero cotidiana, compartida sin más intención que mostrarse. Horas después, mientras el dedo baja por la pantalla, la imagen aparece otra vez. Es la misma cara, el mismo fondo, la misma luz. Pero esta vez el cuerpo está desnudo. No fue una sesión íntima, no hubo consentimiento, no hubo decisión. Aun así, la imagen existe, circula y ya no puede desverse.
Lo que hasta hace poco parecía ciencia ficción hoy se volvió una posibilidad concreta y alarmante. La inteligencia artificial ya no solo escribe textos o crea ilustraciones: también puede fabricar imágenes íntimas falsas con una facilidad inédita. Y en los últimos días, el caso del chatbot Grok, desarrollado por la empresa de Elon Musk e integrado a la red social X (anteriormente twitter), volvió a encender todas las alarmas.
Estas imágenes forman parte de un fenómeno conocido como deepfakes, un término que combina deep learning (aprendizaje profundo) y fake (falso). Se trata de contenidos creados o alterados mediante inteligencia artificial para simular con gran realismo rostros, voces o cuerpos de personas reales.
Durante los últimos meses, los deepfakes se hicieron conocidos principalmente por la manipulación de videos y audios: discursos políticos falsos, voces clonadas para estafas telefónicas o videos adulterados que ponían palabras en boca de figuras públicas. La preocupación estaba centrada, sobre todo, en su potencial impacto electoral, informativo y económico.
Sin embargo, el uso más extendido, y menos visibilizado, actualmente es otro: la creación de imágenes sexuales no consentidas, dirigidas mayoritariamente contra mujeres y niñas. Lo que cambia ahora es la escala y la accesibilidad. Ya no hacen falta conocimientos técnicos ni programas sofisticados. En algunos casos, basta con subir una foto y escribir un comentario con instrucciones.
EL CASO GROK
A comienzos de enero, distintas organizaciones y medios especializados advirtieron que Grok permitía generar imágenes de desnudos falsos, incluso de mujeres reales y menores de edad, a partir de fotografías subidas por usuarios. La herramienta, que se presenta como un chatbot “menos restringido” que otros sistemas de IA, podía ser utilizada para “desnudar” a personas con simples indicaciones textuales.
Las primeras reacciones fueron tibias. Desde el entorno de Elon Musk no hubo un freno inmediato ni una condena explícita. Recién después de una fuerte presión mediática y social, y de advertencias sobre posibles responsabilidades legales, la red social X anunció cambios en las políticas de Grok y aseguró que el sistema ya no genera imágenes con desnudos.
Sin embargo, especialistas advierten que las modificaciones llegan tarde y no garantizan que la práctica haya desaparecido por completo. La tecnología existe, los modelos ya fueron entrenados y otras plataformas, menos visibles o directamente clandestinas, siguen ofreciendo el mismo servicio.
En el país, un ejemplo concreto del daño personal y emocional que puede provocar esta práctica es lo que vivió la influencer y humorista Julieta Savioli. En octubre de 2025 relató que usuarios tomaron sus fotos de redes para generar con inteligencia artificial imágenes falsas en las que aparece desnuda, que luego fueron difundidas sin su consentimiento y usadas para hostigarla.
Savioli explicó que recibe “mensajes alarmantes y violentos” diariamente, incluidos comentarios que le dicen que quieren violarla o hacerle daño físico, y que existen páginas dedicadas a difundir ese material no solicitado. Su testimonio evidencia que, más allá de la violación digital en sí, las consecuencias se extienden a la vida cotidiana de las víctimas: acoso persistente, amenazas y una profunda afectación emocional que convierte la exposición en un sufrimiento continuo.
¿POR QUÉ LA IA "APRENDE" A SEXUALIZAR?
La inteligencia artificial no crea desde el vacío; aprende patrones a partir de bases de datos masivas extraídas de internet. El problema radica en que estas bibliotecas de imágenes suelen reflejar los prejuicios y la violencia de género ya existentes en el mundo digital.
Muchos modelos han sido entrenados con millones de imágenes provenientes de sitios pornográficos donde la explotación y la falta de consentimiento son moneda corriente. Debido a que el cuerpo femenino ha sido históricamente el más expuesto y consumido en internet, los algoritmos "entienden" con mucha más facilidad cómo reconstruir la anatomía de una mujer que la de un hombre.
Esta disparidad en los datos explica por qué una IA puede "desnudar" a una mujer con una simple instrucción textual (como "sacarle la ropa"), ya que el sistema ha procesado suficientes ejemplos para predecir cómo se vería ese cuerpo sin vestimenta, incluso si la foto original es una selfie cotidiana.
Julieta Savioli
UN VACÍO LEGAL QUE EXPONE A LAS VÍCTIMAS
En Argentina, como en muchos países de la región, la creación y difusión de imágenes íntimas falsas enfrenta un problema central: la falta de una tipificación penal específica. Si bien existen leyes vinculadas a la privacidad, la violencia digital y la difusión no consentida de material íntimo, los deepfakes plantean un desafío nuevo.
En muchos casos, las imágenes no son técnicamente “reales”, lo que abre discusiones legales sobre si constituyen o no pornografía no consentida. A esto se suma que las plataformas suelen alojar sus servidores fuera del país, dificultando la remoción rápida del contenido y la identificación de los responsables.
Algunas alternativas legales hoy pasan por:
Aun así, los procesos suelen ser lentos y desgastantes, y la carga de la prueba recae, una vez más, sobre la víctima.
CÓMO REDUCIR EL RIESGO Y QUÉ HACER SI YA OCURRIÓ
Si bien ninguna medida garantiza protección total, especialistas recomiendan:
Si la imagen falsa ya circula, es clave:
1. Guardar pruebas (capturas, enlaces, fechas).
2. Solicitar de inmediato la baja del contenido en la plataforma.
3. Realizar una denuncia legal, incluso si no existe una figura penal específica.
4. Buscar acompañamiento psicológico y legal: el impacto emocional suele ser profundo.
UNA TECNOLOGÍA QUE DESNUDA DESIGUALDADES
El fenómeno de los deepfakes evidencia que la inteligencia artificial no es neutral; sus sesgos de entrenamiento actúan como un espejo de las violencias estructurales. Al nutrirse de bases de datos masivas donde el cuerpo femenino ha sido históricamente objetivado, el sistema "aprende" a sexualizar con una facilidad que no aplica a otros sujetos.
Por ello, el debate sobre la ética desde el diseño es urgente: las empresas no pueden lanzar herramientas "menos restringidas", como se pretendía con Grok, sin prever que el vacío de filtros preventivos se traduce directamente en herramientas de hostigamiento para las víctimas.
En Argentina, la falta de una tipificación penal específica para estas imágenes "falsas" pero de impacto real deja a las víctimas en un estado indefenso en lo procesal. Mientras la tecnología permite "desnudar" a una persona en segundos con comandos simples, los tiempos de la justicia y de las plataformas para remover el contenido siguen siendo lentos y desgastantes.
La pregunta final que plantea este escenario no es solo técnica, sino política y social: en un mundo donde una imagen falsa puede ser más real y dañina que la verdad, ¿quién asumirá la responsabilidad de poner límites antes de que el daño sea irreversible?.