Pulsa «Intro» para saltar al contenido

«La Máquina lo hizo fríamente»: Israel utilizó IA para identificar 37.000 objetivos de Hamás

Texto original publicado en inglés en: https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-airstrikes

Fuentes de inteligencia israelíes revelan el uso del sistema ‘Lavanda’ en la guerra de Gaza y afirman que se les dio permiso para matar civiles en la persecución de militantes de bajo rango.

Palestinos buscan a desaparecidos y víctimas bajo los escombros de una casa destruida tras un ataque aéreo israelí en el campo de refugiados de Al-Maghazi, al sur de Gaza. Fotografía: Mohammed Saber/EPA
Palestinos buscan a desaparecidos y víctimas bajo los escombros de una casa destruida tras un ataque aéreo israelí en el campo de refugiados de Al-Maghazi, al sur de Gaza. Fotografía: Mohammed Saber/EPA

La campaña de bombardeos del ejército israelí en Gaza utilizó una base de datos impulsada por inteligencia artificial no revelada previamente, que en un momento identificó 37.000 objetivos potenciales basándose en sus aparentes vínculos con Hamás, según fuentes de inteligencia involucradas en la guerra.

Además de hablar sobre el uso del sistema de inteligencia artificial, llamado Lavender, las fuentes de inteligencia afirman que funcionarios militares israelíes permitieron que murieran grandes cantidades de civiles palestinos, particularmente durante las primeras semanas y meses del conflicto .

Su testimonio inusualmente sincero ofrece una visión poco común de las experiencias de primera mano de los funcionarios de inteligencia israelíes que han estado utilizando sistemas de aprendizaje automático para ayudar a identificar objetivos durante la guerra de seis meses.

El uso por parte de Israel de poderosos sistemas de inteligencia artificial en su guerra contra Hamás ha entrado en territorio desconocido para la guerra avanzada, planteando una serie de cuestiones jurídicas y morales y transformando la relación entre el personal militar y las máquinas.

“Esto no tiene precedentes, que yo recuerde”, dijo un oficial de inteligencia que usó Lavender, añadiendo que tenían más fe en un “mecanismo estadístico” que en un soldado afligido. “Todos allí, incluyéndome a mí, sufrimos pérdidas el 7 de octubre. La máquina lo hizo con frialdad. Y eso lo facilitó todo”.

Otro usuario de Lavender cuestionó la importancia del papel de los humanos en el proceso de selección. «En esta etapa, dedicaba 20 segundos a cada objetivo y hacía docenas de ellos al día. Como humano, no aportaba ningún valor añadido, salvo ser un sello de aprobación. Ahorraba mucho tiempo».

Niños palestinos rescatan objetos en medio de la destrucción causada por los bombardeos israelíes en Bureij, en el centro de Gaza, el 14 de marzo. Fotografía: AFP/Getty Images
Niños palestinos rescatan objetos en medio de la destrucción causada por los bombardeos israelíes en Bureij, en el centro de Gaza, el 14 de marzo. Fotografía: AFP/Getty Images

El testimonio de los seis oficiales de inteligencia, todos ellos implicados en el uso de sistemas de inteligencia artificial para identificar objetivos de Hamás y la Jihad Islámica Palestina (PIJ) en la guerra, fue entregado al periodista Yuval Abraham para un informe publicado por la publicación israelí-palestina +972 Magazine y el medio en idioma hebreo Local Call .

Sus relatos fueron compartidos en exclusiva con The Guardian antes de su publicación. Los seis afirmaron que Lavender había desempeñado un papel fundamental en la guerra, procesando grandes cantidades de datos para identificar rápidamente a posibles agentes «subalternos» que serían el objetivo. Cuatro de las fuentes afirmaron que, en una etapa temprana de la guerra, Lavender enumeró hasta 37.000 hombres palestinos que habían sido vinculados por el sistema de inteligencia artificial con Hamás o la Yihad Islámica Palestina.

Lavender fue desarrollado por la división de inteligencia de élite de las Fuerzas de Defensa de Israel, Unidad 8200, que es comparable a la Agencia de Seguridad Nacional de Estados Unidos o GCHQ en el Reino Unido.

Varias de las fuentes describieron cómo, para ciertas categorías de objetivos, las FDI aplicaron márgenes preautorizados para el número estimado de civiles que podrían morir antes de que se autorizara un ataque.

Dos fuentes afirmaron que, durante las primeras semanas de la guerra, se les permitía matar a entre 15 y 20 civiles durante ataques aéreos contra militantes de bajo rango. Los ataques contra estos objetivos solían llevarse a cabo con municiones no guiadas, conocidas como «bombas tontas», según las fuentes, que destruían viviendas enteras y mataban a todos sus ocupantes.

«No se debe desperdiciar bombas costosas en personas sin importancia; es muy costoso para el país y hay escasez [de esas bombas]», dijo un oficial de inteligencia. Otro dijo que la principal pregunta que se les planteaba era si los daños colaterales a los civiles justificaban un ataque.

Porque solíamos llevar a cabo los ataques con bombas tontas, lo que significaba literalmente dejar caer toda la casa sobre sus ocupantes. Pero incluso si se evita un ataque, no te importa; pasas inmediatamente al siguiente objetivo. Gracias al sistema, los objetivos nunca terminan. Tienes otros 36.000 esperando.

Según los expertos en conflictos, si Israel ha estado usando bombas tontas para destruir las casas de miles de palestinos que estaban vinculados, con la asistencia de AI, a grupos militantes en Gaza , eso podría ayudar a explicar el sorprendentemente alto número de muertos en la guerra.

El Ministerio de Salud del territorio controlado por Hamás afirma que 33.000 palestinos han muerto en el conflicto en los últimos seis meses. Datos de la ONU muestran que, solo en el primer mes de la guerra, 1.340 familias sufrieron múltiples pérdidas, y 312 familias perdieron a más de 10 miembros.

Soldados israelíes en el lado israelí de la frontera entre Israel y Gaza inspeccionando el territorio palestino el 30 de marzo. Fotografía: Amir Cohen/Reuters
Soldados israelíes en el lado israelí de la frontera entre Israel y Gaza inspeccionando el territorio palestino el 30 de marzo. Fotografía: Amir Cohen/Reuters

En respuesta a la publicación de los testimonios en +972 y Local Call, las FDI afirmaron en un comunicado que sus operaciones se llevaron a cabo de conformidad con las normas de proporcionalidad del derecho internacional. Añadieron que las bombas torpes son «armamento estándar» que utilizan los pilotos de las FDI con un alto nivel de precisión.

El comunicado describió a Lavender como una base de datos utilizada para cruzar fuentes de inteligencia y generar información actualizada sobre los operativos militares de organizaciones terroristas. Esta no es una lista de operativos militares confirmados que puedan atacar.

“Las Fuerzas de Defensa de Israel (FDI) no utilizan un sistema de inteligencia artificial que identifique a operativos terroristas ni intente predecir si una persona es terrorista”, añadió. “Los sistemas de información son simplemente herramientas para los analistas en el proceso de identificación de objetivos”.

Lavender creó una base de datos de decenas de miles de personas

En operaciones militares anteriores de las FDI, la producción de blancos humanos solía ser un proceso más laborioso. Varias fuentes que describieron a The Guardian el desarrollo de blancos en guerras anteriores afirmaron que la decisión de «incriminar» a un individuo o identificarlo como un blanco legítimo se debatía y luego era aprobada por un asesor legal.

En las semanas y meses posteriores al 7 de octubre, este modelo de aprobación de ataques contra objetivos humanos se aceleró drásticamente, según las fuentes. A medida que se intensificaban los bombardeos de las FDI sobre Gaza, afirmaron, los comandantes exigieron una serie continua de objetivos.

“Nos presionaban constantemente: ‘¡Tráigannos más objetivos!’. Nos gritaban a gritos”, dijo un oficial de inteligencia. “Nos decían: ahora tenemos que joder a Hamás, cueste lo que cueste. Bombardeen todo lo que puedan”.

Para satisfacer esta demanda, las FDI recurrieron en gran medida a Lavender para generar una base de datos de individuos que se consideraba que tenían características de militantes de la Yihad Islámica o de Hamás.

Los detalles sobre los tipos específicos de datos utilizados para entrenar el algoritmo de Lavender, o cómo el programa llegó a sus conclusiones, no se incluyen en los relatos publicados por +972 o Local Call. Sin embargo, las fuentes afirmaron que, durante las primeras semanas de la guerra, la Unidad 8200 perfeccionó el algoritmo de Lavender y ajustó sus parámetros de búsqueda.

Después de tomar muestras al azar y cotejar sus predicciones, la unidad concluyó que Lavender había logrado una tasa de precisión del 90%, dijeron las fuentes, lo que llevó a las FDI a aprobar su uso generalizado como herramienta de recomendación de objetivos.

Lavender creó una base de datos de decenas de miles de personas, identificadas principalmente como miembros de bajo rango del ala militar de Hamás, añadieron. Esta se utilizó junto con otro sistema de apoyo a la toma de decisiones basado en IA, llamado Gospel , que recomendaba edificios y estructuras como objetivos en lugar de individuos.

Dos cazas F-15 de la Fuerza Aérea Israelí cerca de la ciudad de Gedera, al sur de Israel, el 27 de marzo. Fotografía: Abir Sultan/EPA
Dos cazas F-15 de la Fuerza Aérea Israelí cerca de la ciudad de Gedera, al sur de Israel, el 27 de marzo. Fotografía: Abir Sultan/EPA

Los relatos incluyen testimonios de primera mano sobre cómo los agentes de inteligencia trabajaron con Lavender y cómo se podía ajustar el alcance de su redada. «En su apogeo, el sistema logró generar 37.000 personas como posibles objetivos humanos», declaró una de las fuentes. «Pero las cifras cambiaban constantemente, porque depende de cómo se establezca el estándar de lo que es un agente de Hamás».

Añadieron: «Hubo momentos en que un agente de Hamás se definía de forma más amplia, y entonces la maquinaria empezó a traernos todo tipo de personal de defensa civil, policías, contra quienes sería una pena desperdiciar bombas. Ayudan al gobierno de Hamás, pero en realidad no ponen en peligro a los soldados».

Antes de la guerra, Estados Unidos e Israel estimaban que el ala militar de Hamás tenía entre 25.000 y 30.000 miembros.

En las semanas posteriores al ataque liderado por Hamás el 7 de octubre contra el sur de Israel, en el que militantes palestinos mataron a casi 1.200 israelíes y secuestraron a unas 240 personas, las fuentes dijeron que hubo una decisión de tratar a los hombres palestinos vinculados al ala militar de Hamás como objetivos potenciales, independientemente de su rango o importancia.

Los procesos de selección de objetivos de las FDI en la fase más intensa del bombardeo también se relajaron, según afirmaron. «Había una política completamente permisiva con respecto a las bajas en los bombardeos», declaró una fuente. «Una política tan permisiva que, en mi opinión, tenía un componente de venganza».

Otra fuente, que justificó el uso de Lavender para identificar objetivos de bajo rango, afirmó que «cuando se trata de un militante joven, no conviene invertir personal ni tiempo en ello». Añadió que en tiempos de guerra no había tiempo suficiente para incriminar cuidadosamente a cada objetivo.

“Entonces, estás dispuesto a asumir el margen de error de usar inteligencia artificial, arriesgarte a sufrir daños colaterales y a que mueran civiles, y arriesgarte a atacar por error, y vivir con ello”, agregaron.

“Es mucho más fácil bombardear la casa de una familia”

Los testimonios publicados por +972 y Local Call pueden explicar cómo un ejército occidental con capacidades tan avanzadas, con armas que pueden llevar a cabo ataques muy precisos, ha llevado a cabo una guerra con un coste humano tan grande.

A la hora de atacar a sospechosos de bajo rango de Hamás y la Yihad Islámica Palestina, dijeron, la preferencia era atacar cuando se creía que estaban en casa. «No nos interesaba matar a operativos [de Hamás] solo cuando estaban en un edificio militar o participando en una actividad militar», dijo uno. «Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones».

Familiares frente a la morgue del hospital al-Najjar en Rafah lloran a los palestinos muertos en los bombardeos israelíes del 1 de febrero. Fotografía: Mohammed Abed/AFP/Getty Images
Familiares frente a la morgue del hospital al-Najjar en Rafah lloran a los palestinos muertos en los bombardeos israelíes del 1 de febrero. Fotografía: Mohammed Abed/AFP/Getty Images

Dicha estrategia conllevaba el riesgo de un mayor número de víctimas civiles, y las fuentes afirmaron que las FDI impusieron límites preautorizados al número de civiles que consideraban aceptable matar en un ataque dirigido contra un solo militante de Hamás. Se dice que la proporción ha cambiado con el tiempo y varía según la antigüedad del objetivo.

Según +972 y Local Call, las FDI consideraron permisible matar a más de 100 civiles en ataques contra altos cargos de Hamás. «Hicimos un cálculo de cuántos civiles podrían ser asesinados para el comandante de brigada, cuántos para el comandante de batallón, etc.», declaró una fuente.

“Había regulaciones, pero eran muy permisivas”, añadió otro. “Hemos matado a personas con daños colaterales de hasta dos dígitos, o incluso de tres dígitos. Son cosas que no habían sucedido antes”. Parece haber habido fluctuaciones significativas en la cifra que los comandantes militares toleraban en las diferentes etapas de la guerra.

Una fuente afirmó que el límite de bajas civiles permitidas fluctuaba con el tiempo, llegando a ser incluso de cinco. Durante la primera semana del conflicto, según la fuente, se autorizó matar a 15 civiles para eliminar a militantes jóvenes en Gaza. Sin embargo, indicó que las estimaciones de bajas civiles eran imprecisas, ya que no era posible saber con certeza cuántas personas había en un edificio.

Otro oficial de inteligencia afirmó que, más recientemente en el conflicto, la tasa de daños colaterales permitidos se redujo. Sin embargo, en una etapa anterior de la guerra, se les autorizó a matar hasta «20 civiles no involucrados» por cada agente, independientemente de su rango, importancia militar o edad.

“No se trata solo de que se pueda matar a cualquier soldado de Hamás, lo cual está claramente permitido y es legítimo según el derecho internacional”, dijeron. “Sino que te dicen directamente: ‘Tienes permitido matarlos junto con muchos civiles’. … En la práctica, el criterio de proporcionalidad no existía”.

El comunicado de las FDI afirmaba que sus procedimientos «requieren una evaluación individual de la ventaja militar prevista y los daños colaterales previstos… Las FDI no llevan a cabo ataques cuando los daños colaterales previstos son excesivos en relación con la ventaja militar». Añadía: «Las FDI rechazan rotundamente cualquier afirmación sobre cualquier política de matar a decenas de miles de personas en sus hogares».

Expertos en derecho internacional humanitario que hablaron con The Guardian expresaron su alarma ante los informes de que las FDI aceptan y preautorizan índices de daños colaterales de hasta 20 civiles, especialmente para militantes de bajo rango. Afirmaron que los ejércitos deben evaluar la proporcionalidad de cada ataque.

Humo se eleva sobre la Franja de Gaza, visto desde el lado israelí de la frontera el 21 de enero. Fotografía: Amir Levy/Getty Images
Humo se eleva sobre la Franja de Gaza, visto desde el lado israelí de la frontera el 21 de enero. Fotografía: Amir Levy/Getty Images

Un experto en derecho internacional del Departamento de Estado de EE. UU. afirmó que «nunca habían oído hablar de una proporción de uno a quince que se considerara aceptable, especialmente para combatientes de bajo rango. Hay mucho margen de maniobra, pero me parece extremo».

Sarah Harrison, exabogada del Departamento de Defensa de EE. UU. y ahora analista de Crisis Group, afirmó: «Si bien en ciertas ocasiones 15 muertes civiles colaterales podrían ser proporcionales, hay otras en las que definitivamente no lo serían. No se puede simplemente establecer una cifra tolerable para una categoría de objetivos y afirmar que será legalmente proporcional en cada caso».

Sea cual sea la justificación legal o moral de la estrategia de bombardeo de Israel, algunos de sus oficiales de inteligencia parecen cuestionar ahora el enfoque establecido por sus comandantes. «Nadie pensó en qué hacer después, cuando termine la guerra, ni en cómo será posible vivir en Gaza», dijo uno.

Otro dijo que, tras los ataques de Hamás del 7 de octubre, el ambiente en las Fuerzas de Defensa de Israel era «doloroso y vengativo». «Había una disonancia: por un lado, la gente aquí estaba frustrada porque no atacábamos lo suficiente. Por otro lado, al final del día, se ve que otros mil gazatíes han muerto, la mayoría civiles».