El 31 de diciembre recién pasado, la imagen de Elon Musk en bikini apareció a través de la herramienta GROK, su empresa de Inteligencia Artificial (IA). La fotografía pasó 11 días al aire, tiempo suficiente para que “los usuarios de X entendieran que existía una herramienta para desnudar digitalmente a cualquiera que la utilizara y creara una imagen sexualizada cada 41 segundos sin su consentimiento”. Así lo explica el artículo “Los usuarios de Grok generaron tres millones de imágenes sexualizadas en X en 11 días, incluidas más de 23.000 de menores”, escrito por la periodista Patricia Fernández de Lis y publicado para el periódico El País, de España, el 22 de enero. El mismo propietario de GROK había pedido a su empresa que publicaran su retrato en esa pose, seguramente para promocionar su plataforma virtual a nivel mundial.
Estos hechos llevaron a Ursula von der Leyen, la presidenta de la Comisión Europea (el principal órgano ejecutivo de la Unión Europea), a lanzar una advertencia clara a las grandes empresas de Silicon Valley: “Me horroriza que una plataforma tecnológica permita a los usuarios desnudar digitalmente a mujeres y niños en internet. Es un comportamiento inconcebible. Y el daño causado por esto es muy real”. También el Ministerio de Juventud e Infancia español expresó la semana pasada su preocupación por la proliferación de imágenes sexualizadas de menores, según la ministra Sira Rego, que pidió una investigación contra Grok, iniciada por la Fiscalía, de acuerdo al artículo de la periodista Fernández de Lis.
Si se quiere aprovechar el valor de la Inteligencia Artificial (IA) es indispensable “redefinir los protocolos de seguridad y control” ya que los modelos tradicionales de protección y vigilancia “fueron diseñados para un mundo en el que las decisiones las tomaban personas” y no máquinas, advierte la última versión de la revista virtual Gestión Educativa, al reflexionar sobre las innovaciones del sistema educativo para este 2026 en la Comunidad de Madrid, España.
“El reto, en educación, para 2026 no será cómo digitalizar más, sino cómo digitalizar mejor, garantizando que la tecnología no sustituya las competencias básicas ni comprometa el bienestar integral del alumnado, hace ver el artículo “El fin de la era «un niño, una tablet»: Madrid impone el modelo de dispositivo colectivo en las aulas”.
La «era de la tablet» parece ceder su lugar a una era de equilibrio digital, donde el docente vuelve a ser el centro de la mediación pedagógica”, recalca el artículo en mención que, además, agrega: la Comunidad de Madrid, España, ha consolidado su estrategia de “Pantallas cero” para educación infantil y primaria en el marco de lo que ellos llaman “higiene digital”.
En consonancia a esta preocupación, el mismo periódico español, ya había publicado el 15 de enero del presente año, una entrevista con Nadav Zafrir, actual presidente general de Check Point, una de las mayores empresas de mundo en el ámbito de la ciberseguridad, quien señalaba que es urgente definir qué nivel de autonomía se concede a la IA y qué riesgos se asumen. La seguridad debe integrarse desde el principio y actualizarse de forma continua, porque la IA evoluciona mucho más rápido que los marcos tradicionales de control” en esta carrera en donde al parecer, todos los países e instituciones no quisieran quedarse atrás. Y tres días después, en un editorial, este medio informativo hace ver que, en la última reunión del Foro Económico Social realizado en Davos, Suiza, se presentó la Encuesta de Percepción de Riesgos Globales (GRPS) que asevera que “la amenaza más preocupante a nivel mundial es la brecha entre la adopción de la IA y la falta de salvaguardas, lo que está creando un cóctel explosivo y un riesgo sistémico en sí mismo”. “Las empresas están adoptando a toda velocidad herramientas de IA sin que vayan acompañadas de sistemas de seguridad acordes o de personal preparado para gestionarlos”, indica.
Profesor, Licenciado en Letras y Maestría en Política y Evaluación educativa