Los 60 años de un grande de nuestra historia,Jorge González. Por Juan Francisco Torres
Israel y la utilización de AI en Gaza:¿El primer genocidio asistido por inteligencia artificial?
¿Cómo utiliza Israel la inteligencia artificial para seleccionar sus objetivos y bombardear Gaza o el primer genocidio asistido por Inteligencia Artificial?
El conflicto palestino-israelí tiene sus raíces a mediados del siglo XX y se ha transformado por completo con la llegada de las tecnologías modernas. Ha evolucionado hacia una dimensión de guerra tecnológica de gran intensidad con la adopción de la inteligencia artificial (IA) en sus operaciones militares. El controvertido uso de la IA en el conflicto contra los palestinos y, en particular, los habitantes de Gaza, plantea cuestiones éticas que las modificaciones tácticas y las repercusiones sobre miles de civiles exacerban aún más. Desde el 7 de octubre de 2023, estas tecnologías de inteligencia artificial, incluidas ‘Habsora’, ‘Lavender’ y ‘ Where’s Daddy?’, han desempeñado un papel clave en la estrategia militar israelí. Analizan rápidamente grandes cantidades de datos para identificar y atacar objetivos de manera efectiva, abriendo una nueva era en los conflictos donde la tecnología juega un papel clave, lo que plantea problemas importantes porque potencialmente marca una ausencia total de ética y moral en conflictos futuros.
Contexto histórico y raíces del conflicto.
La continua ocupación de tierras palestinas sigue siendo una cuestión central que influye en las estrategias militares y las justificaciones de las acciones de Israel y sus aliados. Así, el despliegue de inteligencia artificial en operaciones militares representa no sólo un avance tecnológico sino también la extensión de tácticas ancestrales, adaptadas a la era moderna. Esto permite mantener la superioridad estratégica y de seguridad con miras a la colonización incremental de tierras palestinas, un fenómeno profundamente arraigado en este contexto histórico.
Tecnologías de IA en cuestión.
Israel ha cruzado un nuevo umbral en la automatización de la guerra. Las Fuerzas de Defensa de Israel (FDI) han desarrollado un programa apoyado por inteligencia artificial (IA) para seleccionar a las víctimas de sus bombardeos. Es un proceso que tradicionalmente requería verificación manual hasta que se pudiera confirmar que una persona era el objetivo. Según seis oficiales de inteligencia israelíes, el ejército está utilizando una herramienta de inteligencia artificial apodada “Lavander” para generar decenas de miles de “objetivos humanos” para asesinarlos con el argumento de que son parte de las alas armadas de Hamás o del Jihad Islámico Palestino. Los datos así recopilados se introducen en un sistema de seguimiento automatizado conocido como “Where’s Daddy?” lo que permite al ejército matar a los palestinos seleccionados, dentro de sus hogares, así como a sus familias enteras y, a menudo, a muchos de sus vecinos. Este es un ejemplo de uso operativo de la inteligencia artificial.
Lavender, es un sistema de inteligencia artificial que identificó a 37.000 palestinos como objetivos potenciales durante las primeras semanas de la guerra, y entre el 7 de octubre y el 24 de noviembre. Se utilizó en al menos 15.000 asesinatos durante la invasión de Gaza. Esto es lo que se desprende de una investigación periodística realizada por dos medios israelíes, +972 Magazine y Local Call y recogida en una publicación, en particular en The Guardian.
Estos sistemas de IA representan la vanguardia de un cambio tecnológico que ofrece al ejército israelí capacidades sin precedentes en términos de identificación de objetivos y ejecución operativa.
La IA «Lavender» está diseñada para dirigir bombardeos de manera más eficiente y letal al identificar objetivos humanos en función de sus sospechas de conexiones con Hamás u otros grupos militantes. Este sistema clasifica personas y lugares con muy poca supervisión humana.
El papel de Lavender se extiende más allá de la simple sugerencia de objetivos. Influye en la toma de decisiones estratégicas. Este último puede provocar un mayor número de víctimas civiles debido a sus criterios de selección de objetivos expansivos. Si el número de víctimas colaterales toleradas era de 2 a 4 víctimas, aumentó a 10 a 15 desde el 7 de octubre, según informó un oficial israelí al periodista +971. Sin mencionar que el operador militar que tiene el ojo puesto en el dron asesino, guiado por la IA, sólo tiene 20 segundos para confirmar o refutar la decisión tomada por la IA de bombardear un edificio o matar a un combatiente.
AI “Where’s Daddy?” apunta a personas en sus hogares, principalmente de noche. Este sistema de seguimiento geográfico permite lanzar ataques aéreos tan pronto como los objetivos regresan a casa, aprovechando su ubicación estable para una mayor precisión. Según un oficial de inteligencia israelí, las fuerzas militares israelíes prefieren atacar a los palestinos en sus hogares en lugar de durante sus actividades de defensa porque es técnicamente más simple y directo, y ofrece mayores garantías de éxito.
Esta elección revela una estrategia encaminada a maximizar la eficacia de las operaciones explotando capacidades tecnológicas avanzadas, sin tener en cuenta los daños colaterales, a menudo graves, que afectan a civiles, mujeres y niños, ya que los hogares son el objetivo. Juntos, “Where’s Daddy?” y «Lavender» constituyen una automatización de los componentes de localización, fijación, seguimiento y selección de objetivos de lo que se conoce en el ejército moderno como la «cadena de muerte».
La IA «Habsora» o «evangelio» automatiza el proceso de selección de objetivos analizando grandes cantidades de datos de diversas fuentes de inteligencia. Este sistema de IA acelera significativamente el proceso de toma de decisiones, permitiendo la rápida identificación de objetivos potenciales en Gaza. La capacidad de procesar estos datos mucho más rápido que los analistas humanos permite un ritmo operativo más alto, aumentando tanto el número como la precisión de los ataques.
«El evangelio» se utilizó para marcar edificios o estructuras desde las que se cree que opera Hamás. Según un informe de la revista +972 y Local Call de noviembre de 2023, repetido en abril de 2024, esta IA también ha contribuido a un número considerable de víctimas civiles. “Cuando una niña de 3 años muere en una casa en Gaza, es porque alguien en el ejército israelí decidió que no era gran cosa que la mataran, que era un precio a pagar para alcanzar otro objetivo” dijo una fuente militar a las publicaciones en ese momento.
El despliegue de estos sistemas de IA ha cambiado fundamentalmente el panorama del compromiso militar de Israel. Al permitir ataques más frecuentes y dirigidos con precisión, estas tecnologías se promocionan por su eficacia y eficiencia. Sin embargo, también representan una escalada significativa en la capacidad de llevar a cabo la guerra en zonas densamente pobladas, donde la distinción entre combatientes y no combatientes es extremadamente borrosa.
Los israelíes instalaron software espía en todos los teléfonos palestinos. Se trata de los equivalentes del famoso software espía “Pegasus”, desarrollado y vendido por la empresa israelí NSO Group. Se utilizan para detectar, escuchar y rastrear objetivos que luego son «tomados» por herramientas de inteligencia artificial utilizadas como arma por derecho propio por los israelíes matando y bombardeando de forma remota sin involucrar a las tropas terrestres.
Implicaciones legales, éticas y de derechos humanos.
La integración de la IA en las operaciones militares israelíes plantea profundas dudas sobre el cumplimiento de las normas legales y éticas internacionales. Sistemas como “Habsora”, “Lavender” y “Where’s Daddy?” automatice decisiones críticas, reduciendo los objetivos a simples puntos de datos. Esta deshumanización (“lista de asesinatos”) corre el riesgo de aumentar los errores, en los que a veces se identifica erróneamente a los civiles como combatientes, desdibujando la línea de responsabilidad en caso de víctimas injustificadas.
Los principios de distinción y proporcionalidad, piedras angulares del derecho humanitario, están particularmente amenazados. La IA puede ejecutar ataques con una velocidad y frecuencia que desafían estas normas, lo que a menudo conduce a un uso desproporcionado de la fuerza. La falta de transparencia en los algoritmos militares complica aún más la supervisión y la rendición de cuentas, lo que genera preocupaciones sobre la capacidad de mantener la ética en zonas de conflicto densamente pobladas.
Las implicaciones de tales tecnologías se extienden más allá del campo de batalla, provocando protestas internacionales y acusaciones de crímenes de guerra. Estas críticas resaltan la necesidad urgente de regulaciones internacionales más estrictas para regir el uso de la IA en conflictos, asegurando que los avances tecnológicos no excedan los límites éticos y legales.
Impacto sobre los civiles y reacciones internacionales.
El uso de estrategias impulsadas por la IA en el ejército israelí ha tenido un impacto y consecuencias devastadoras para la población de Gaza. La aplicación de sistemas de inteligencia artificial, como se mencionó anteriormente, en áreas densamente pobladas ha facilitado una alta frecuencia de ataques aéreos, que han provocado numerosas víctimas civiles y una destrucción generalizada de infraestructura civil.
La tecnología de IA apunta a lo que se consideran objetivos de “alto valor” en áreas residenciales, a menudo sin tiempo suficiente para verificar la presencia de activos militares o combatientes. Este método provocó un aumento muy sustancial de las víctimas civiles, incluidas mujeres y niños. Además, la destrucción va más allá de la pérdida de vidas: escuelas, hospitales y viviendas quedaron destruidas o gravemente dañadas, lo que desplazó a miles de personas y empeoró la crisis humanitaria en Gaza.
Este uso ampliado de la IA en operaciones militares ha generado fuertes críticas por parte de la comunidad internacional, incluidas organizaciones de derechos humanos, el propio Secretario General de las Naciones Unidas y decenas de gobiernos. Se han presentado acusaciones de crímenes de guerra y genocidio, lo que pone de relieve el impacto desproporcionado en los civiles y las implicaciones éticas del uso de tecnologías tan avanzadas en estas condiciones extremas de confinamiento. Estas críticas se ven reforzadas por la capacidad de los sistemas de inteligencia artificial para cambiar la escala y el alcance del compromiso militar, lo que provoca importantes debates sobre el cumplimiento del derecho internacional humanitario.
En respuesta a estas preocupaciones, se ha pedido una mayor transparencia en las operaciones militares que utilizan tecnologías de inteligencia artificial. Los críticos señalan la necesidad de mecanismos de supervisión independientes para garantizar que estas tecnologías se utilicen de acuerdo con el derecho internacional y las normas éticas. Además, existe una demanda creciente de establecimiento de estándares y marcos legales claros que regulen el uso de la IA en conflictos armados, con el fin de prevenir abusos y garantizar que los avances tecnológicos no superen los estándares éticos y legales.
La representación del conflicto y el papel de la IA en los medios de comunicación también han influido en la percepción pública a nivel mundial. Los informes sobre los ataques liderados por IA a menudo resaltan la naturaleza clínica de dichos ataques y las víctimas y el sufrimiento civiles resultantes, lo que influye en la opinión pública y aumenta la presión sobre los líderes políticos para que intervengan o reevalúen sus políticas militares con respecto a la IA.
Cambios tácticos y estratégicos.
La adopción de la inteligencia artificial (IA) en las operaciones militares israelíes no sólo ha mejorado las capacidades del Ejército, sino que también ha transformado significativamente sus enfoques tácticos y estratégicos. Los sistemas de inteligencia artificial como “Habsora” y “Lavender” permiten una identificación rápida y precisa de objetivos, aumentando la efectividad de los ataques y el ritmo operativo. Esta mayor capacidad reduce el tiempo de reacción del adversario, intensificando el impacto de las operaciones.
Al mismo tiempo, el uso de la IA ha ampliado la definición de objetivos potenciales, permitiendo que los algoritmos detecten conexiones sutiles que podrían indicar valor estratégico. Esto aumenta la presión psicológica sobre el adversario y podría empujar a los grupos hostiles a reconsiderar sus estrategias.
Sin embargo, una mayor dependencia de la IA también puede conducir a una despersonalización de las decisiones de combate, donde a veces se subestiman las implicaciones humanas de las acciones militares. Los cambios introducidos por la IA presagian un futuro en el que la guerra se librará cada vez más a distancia, lo que podría transformar fundamentalmente la naturaleza del conflicto.
Las implicaciones de estos cambios estratégicos son amplias y requieren atención continua para garantizar que los avances tecnológicos se traduzcan en mejoras tácticas que cumplan con los estándares internacionales de conducta en la guerra.
Efectos psicológicos y sociales.
El uso estratégico de la inteligencia artificial (IA) en operaciones militares ha alterado profundamente la dinámica social y psicológica en Gaza. La precisión y la imprevisibilidad de los ataques de la IA crean una atmósfera de miedo e inseguridad en la que ningún lugar se percibe como seguro. Esta ansiedad generalizada afecta profundamente la salud mental de los residentes, exacerbando trastornos como el estrés postraumático, la ansiedad y la depresión.
Los impactos se extienden más allá de la salud individual y erosionan la cohesión social y la estructura comunitaria. La destrucción de hogares, escuelas e infraestructura crítica no solo desplaza a las poblaciones, sino que también debilita las redes de apoyo esenciales para la resiliencia comunitaria. A largo plazo, esto puede conducir a la fragmentación social, complicando los esfuerzos por restablecer la paz y la estabilidad.
Estos impactos no son sólo locales; también resuenan a nivel internacional, influyendo en la percepción pública y aumentando la presión política para una respuesta más humana y regulada al conflicto. La participación continua en el diálogo y la formulación de políticas destinadas a mitigar estos efectos es crucial para orientar el futuro de las operaciones militares hacia una conducta más respetuosa de la dignidad humana y las normas éticas.
Conclusión e implicaciones futuras.
La expansión de la inteligencia artificial en el conflicto palestino-israelí, particularmente durante las actuales hostilidades contra Gaza, deja claro que la integración de esta tecnología en las estrategias militares constituye un importante avance peligroso. La guerra automatizada con IA no sólo redefine las tácticas de combate, sino que también plantea importantes cuestiones éticas, legales y humanitarias que desafían todos los estándares internacionales establecidos en esta área.
Sistemas como «Lavender», “Where’s Daddy?” y “Habsora” han transformado las operaciones militares, ofrecen mayor precisión y velocidad en la selección de objetivos, pero también han provocado numerosas víctimas civiles y una destrucción considerable de infraestructura. El uso de estas tecnologías plantea importantes cuestiones éticas, lo que muestra la necesidad de normas internacionales que las regulen. Estos esfuerzos deben equilibrar las ventajas tecnológicas con la necesidad de proteger primero las vidas humanas, respetando al mismo tiempo el derecho internacional humanitario.
También es imperativo desarrollar estándares internacionales específicos para el uso de la IA en contextos militares. Estas normas deberían incorporar requisitos de transparencia, rendición de cuentas y proporcionalidad. Puede ser necesaria la creación de un organismo de seguimiento internacional para garantizar la aplicación de estas normas.
Es importante continuar la investigación, el diálogo y la formulación de políticas que maximicen los beneficios de la IA y minimicen sus riesgos. El objetivo de todo ser humano debe seguir siendo dirigir el futuro de la guerra hacia un camino que priorice la dignidad humana y la paz, en lugar de la dominación tecnológica.
Finalmente, le pedí personalmente a mi IA favorita que me proporcionara la información más reciente sobre el conflicto ruso-ucraniano. En menos de dos segundos, resumió la situación y sus implicaciones para mí. Sin embargo, cuando hice la misma pregunta sobre el conflicto palestino-israelí, sólo obtuve respuestas vagas. Concluye que no puede proporcionar la información solicitada, argumentando que el tema es demasiado delicado y controvertido.
Esto es lo que esto significa para el futuro: incluso la inteligencia artificial puede ser manipulada y seguir directivas impuestas por las corporaciones que la controlan. Además, si la IA elige qué temas puede y qué no puede cubrir, ¿cómo podemos estar seguros de que los temas tratados se tratan de manera imparcial?
Ali Kahlane Ph.D.
Fuente: La Patrie News de Argelia.
Traducción de InfoSurGlobal