Minab: 175 niñas muertas bajo la 'ceguera' de la IA

"Minab: 175 niñas muertas bajo la 'ceguera' de la IA", escribe Irene Selser en #Entrevías

El 28 de febrero, en el primer día del atropellado ataque de Benjamín Netanyahu y Donald Trump contra el régimen chiita de Irán -construido como la invasión a Irak en 2003 con base en información falseada y distorsiones-, 175 niñas de entre siete y 12 años fueron asesinadas durante un bombardeo con misiles que impactaron en un edificio escolar en el sur del país.

A casi tres semanas del hecho, y cuando la renuncia este martes de Joe Kent, director del Centro Nacional Antiterrorista de Estados Unidos por un desacuerdo de fondo con la justificación del conflicto por parte de Trump (“No puedo, en conciencia, apoyar la guerra en curso”, Irán “no representaba una amenaza inminente”), la ONU y organizaciones humanitarias han exigido al jefe del Pentágono, Pete Hegseth, una investigación transparente. Según fuentes militares, el ataque pudo deberse “a coordenadas de objetivos basadas en información de inteligencia desactualizada sobre un antiguo complejo militar cercano”.

Eran entre las 10:23 y las 10:45 de la mañana, hora local, y la primaria Shajareh Tayyebeh, ubicada en la ciudad de Minab, provincia de Hormozgán, quedó reducida a escombros. En el ataque murieron además docentes y algunos padres, y 95 personas resultaron heridas.

La masacre de Minab remite al patrón utilizado por las Fuerzas de Defensa Israelíes (FDI) en la Franja de Gaza tras los ataques de Hamás del 7 de octubre de 2023: cientos de bombardeos contra hospitales, escuelas, edificios y refugios, causando un número elevado de víctimas civiles, a partir del uso de sistemas de inteligencia artificial como Lavender y The Gospel para generar en poco tiempo listas con miles de objetivos a fin de acelerar el ritmo de los ataques indiscriminados.

De acuerdo con las FDI, los sistemas de IA sólo ayudan al análisis ya que las decisiones finales las toman oficiales humanos. Sin embargo, el tema ha abierto un debate global sobre el uso militar de la IA, la responsabilidad por las víctimas civiles y la aplicación del derecho internacional humanitario en los nuevos conflictos, cuando vemos que en Irán se repite el mismo patrón de Gaza.

Para Avner Gvaryahu, director ejecutivo de la ONG israelí Breaking The Silence, creada por exsoldados de las FDI, el patrón es efectivamente el mismo: “armas de precisión, ceguera voluntaria y niños muertos. El costo de no regular la guerra con IA ya es demasiado alto”.

En un análisis publicado en The Guardian (https://www.theguardian.com/us-news/ng-interactive/2026/mar/15/), Gvaryahu se remonta a la Segunda Intifada -el levantamiento palestino de 2000-2005 en Gaza, Cisjordania y Jerusalén Este contra la ocupación israelí- para rastrear el origen de lo que llama “ceguera voluntaria”.

En esa rebelión, que dejó más de tres mil palestinos y mil israelíes muertos, las FDI aplicaron por primera vez una estrategia militar denominada “procedimiento de niebla”: una norma no oficial que exige a los soldados que custodian puestos militares en condiciones de baja visibilidad disparar ráfagas al anochecer, bajo la premisa de una amenaza invisible al acecho.

“Es violencia amparada por la ceguera -afirma Gvaryahu-. Disparar a ciegas y llamarlo disuasión. Con el auge de la guerra con IA, esa misma lógica de ceguera voluntaria se ha perfeccionado, sistematizado y transferido a una máquina”. Y si antes “la oscuridad en la atalaya era una condición del terreno, ahora la oscuridad dentro del algoritmo es una condición del diseño”.

“La ceguera es útil -dice-: crea negación, hace que la violencia parezca inevitable, traslada la cuestión de la toma de decisión de una persona a un procedimiento. La niebla no se disipó. Se le asignó una puntuación de probabilidad y se la denominó inteligencia”.

Es posible que la “ceguera voluntaria” haya sido la causa del ataque en Minab. Gvaryahu recordó que hace una década la escuela fue separada de una base adyacente de la Guardia Revolucionaria -el ejército paralelo de Irán- por una valla y reconvertida para uso civil.

“Gaza fue el laboratorio, Minab es el mercado”, añade Gvaryahu. “El resultado es un mundo donde las decisiones más trascendentales las toman sistemas inexplicables, abastecidos por empresas que no rinden cuentas a nadie, en conflictos que no generan rendición de cuentas”.

Pero entonces, ¿quién es el responsable cuando la “imprecisión” de la IA es parte del objetivo? En el caso de Gaza, una investigación previa de The Guardian con +972 Magazine y Local Call halló, tras revisar una base de datos militar israelí, que de las 53 mil muertes registradas hasta ese momento los combatientes identificados de Hamás y Yihad Islámica representaban sólo el 17%, siendo el 83% restante civiles, en su mayoría mujeres y niños.

“Así pues, cuando una escuela en Minab se clasifica en una base de datos como un complejo militar, no se trata de un fallo. Es el procedimiento de detección automática funcionando exactamente como estaba previsto, a una escala diferente, en un país diferente y con un arma diferente. La oscuridad simplemente cuenta con un hardware más avanzado”.

Gvaryahu propone llamar a las empresas tecnológicas de IA por lo que realmente son: contratistas de defensa, cuyos sistemas se ubican dentro de la cadena de ataque, a la vanguardia del complejo militar-industrial, la misma que ha conectado siempre a Silicon Valley con el Pentágono.

A la fecha, el intento más ambicioso de regulación es la Ley de IA de la Unión Europea, la cual exime las aplicaciones militares y de seguridad nacional, con el argumento de que el derecho internacional humanitario constituye el marco más apropiado.

Al contrario, destaca Gvaryahu, en Estados Unidos las disposiciones de la Ley de Autorización de Defensa Nacional de 2025 no regulan la IA militar. Es más, la nueva estrategia del Pentágono, publicada en enero de 2026, insta a actuar con la rapidez de la guerra, utilizando la IA como primer campo de pruebas.

Con ello, afirma Gvaryahu, “la cultura regulatoria no sólo no ha logrado adaptarse a la tecnología, sino que ha optado deliberadamente por no intentarlo”.