La inteligencia artificial ha dado un nuevo salto. Ya no solo redacta textos o responde preguntas: ahora es capaz de generar imágenes hiperrealistas de personas reales, incluso desnudos o imágenes sexualizadas, sin su consentimiento y a partir de fotos extraídas de redes sociales.
Este fenómeno, cada vez más accesible y preocupante, ha llegado al debate público tras la investigación abierta por la Fiscalía General del Estado sobre el uso de Grok, la herramienta de IA integrada en X. El tema fue analizado recientemente en Aragón Radio, con la participación de Iván Reyes, cofundador y CEO de IA Experience, y del abogado especialista en protección de datos Diego Fanjul.
“Esto ya está pasando, y preocupa”
Iván Reyes fue claro desde el inicio:
“Desde principio de este año se está viendo un claro proceso de creación de imágenes de personas reales que hace que puedan llegar a estar desnudas o en bikini, y que preocupa tanto a padres, familiares y personas del entorno.”
La clave no está solo en la capacidad técnica, sino en la facilidad de acceso. Estas herramientas están al alcance de cualquiera, sin conocimientos avanzados ni barreras reales de entrada.
El problema no es la IA, es cómo se regula
Durante la entrevista, Iván explicó una diferencia fundamental entre plataformas:
“ChatGPT, Gemini o DeepSeek tienen un cortafuegos. Cuando tú ‘promteas’ con cierto carácter lesivo, te cortan.”
Herramientas como ChatGPT, Gemini o DeepSeek incorporan límites éticos y técnicos para evitar usos dañinos.
Sin embargo, según Iván Reyes, el problema llega cuando la propia plataforma no solo no limita, sino que facilita estos usos:
“X no lo está regulando, sino que le está echando más leña al fuego. Está haciendo que tengas la posibilidad de hacerlo y eso es preocupante.”
Democratización total… también del daño
Uno de los puntos más alarmantes es la sencillez con la que se puede usar esta tecnología:
“Dentro de un post lo mencionas, lo convocas con el arroba y ya puedes usar esa tecnología.
La IA se ha democratizado, sí. Pero también se ha democratizado la capacidad de causar daño, vulnerar la intimidad o destruir reputaciones en segundos.
¿De dónde aprende la IA? De nosotros
Otro aspecto crítico es la privacidad. Iván explicó cómo estas plataformas entrenan sus modelos:
“El aprendizaje viene por las publicaciones que hacemos todos… Si alguien sube una foto tuya y te etiqueta, ya aprende sobre esa fotografía.”
Esto implica una pérdida real de control: incluso aunque tú no subas una imagen, otros pueden hacerlo por ti.
“Si usas redes sociales, tú eres el producto”
La reflexión es incómoda, pero necesaria:
“Las redes sociales están configuradas para que, si las quieres usar, tengan libre disposición a usar todos tus datos.”
Limitar el uso de datos implica, en muchos casos, renunciar a funcionalidades básicas. El modelo de negocio es claro: atención y datos a cambio de servicio.
El punto de vista legal: el daño ya está hecho
El abogado Diego Fanjul aportó una visión jurídica realista:
“Aunque estos contenidos atenten contra la privacidad o el derecho a la propia imagen, el daño se produce y es muy difícil perseguir estos ilícitos individualmente.”
Aunque organismos como la Agencia Española de Protección de Datos han habilitado mecanismos para retirar contenido, la eliminación no borra el impacto emocional, social o reputacional.
Su recomendación fue tan clara como radical:
“Yo recomiendo a la gente que no utilice redes sociales.”
Menores y futuro digital: un riesgo añadido
La preocupación se multiplica cuando hablamos de menores. Aunque se esperan nuevas leyes de protección en entornos digitales, Fanjul recordó que las plataformas no son neutrales: están diseñadas para captar atención y datos, no para proteger.
Tecnología con ética o tecnología sin control
Iván Reyes cerró la intervención con una reflexión que resume el mensaje central:
“Tenemos herramientas muy potentes que, con buen uso, buena ética y buena crítica, pueden servir para hacer cosas muy buenas… pero también para hacer cosas muy malas.”
En IA Experience lo tenemos claro: la clave no es frenar la innovación, sino acompañarla de ética, regulación y pensamiento crítico. La inteligencia artificial no es el enemigo. El verdadero riesgo es mirar hacia otro lado mientras su uso se descontrola.