La infraestructura de IA de Silicon Valley detrás del genocidio de Gaza

TheLibertyBeacon.com

Los vídeos promocionales muestran ingenieros sonrientes. Los comunicados de prensa prometen «Inteligencia Artificial para el Bien». Pero en Gaza, el lenguaje edulcorado de la innovación tecnológica choca con una brutal realidad donde los sistemas de inteligencia artificial diseñados en Silicon Valley deciden quién vive y quién muere. Marwa Fatafta, investigadora y analista política palestina residente en Berlín, lleva meses documentando cómo sucedió esto. Su nuevo informe  revela algo que debería conmocionarnos profundamente. Las herramientas de computación en la nube e IA de las grandes tecnológicas no solo se utilizan en la guerra de Israel contra Gaza; se han convertido en infraestructura esencial para lo que diversos organismos de la ONU han calificado de actos genocidas.

Veinte segundos para marcar a un humano para la muerte

En los centros de operaciones militares israelíes, sistemas de IA con nombres como “Lavender”, “The Gospel” y “¿Dónde está papá?” funcionan las 24 horas. Más que ayudar en las decisiones humanas, las reemplazan.

Lavender puede identificar y aprobar un objetivo en tan solo 20 segundos. Piénsalo. Mientras lees este párrafo, el sistema ya ha decidido que alguien debe morir.

La magnitud es sobrecogedora por su horror. Según informes de fuentes militares israelíes, Lavender generó una lista de 37.000 personas identificadas como miembros de Hamás. Muchos eran de bajo rango. Algunos no tenían ningún cargo militar confirmado. El ejército israelí atacaba hasta 250 objetivos diarios, más del doble que en conflictos anteriores. Para diciembre de 2023, se habían alcanzado más de 22.000 objetivos dentro de Gaza, un ritmo imposible sin la automatización algorítmica.

Luego está «¿Dónde está papá?», un sistema que, según se informa, rastrea a los militantes a través de sus teléfonos móviles y espera. Espera hasta que lleguen a casa. Hasta que estén con sus familias. El sistema interpreta su presencia en casa como una confirmación de identidad. Y entonces ataca.

Una fuente militar israelí de alto rango describió su funcionamiento: cada objetivo tiene un índice de daños colaterales, un cálculo de cuántos civiles probablemente morirán. Según la fuente, los operadores utilizan mediciones muy precisas de cuántos civiles evacuan un edificio justo antes del ataque. Otro miembro del ejército lo comparó con un semáforo.

Las familias se convierten en pérdidas aceptables. Los hogares, en trampas mortales. Los niños, en daños colaterales; sus muertes, precalculadas y consideradas aceptables.

Los servicios en la nube detrás del asesinato

Aquí es donde entran en escena las empresas estadounidenses.

Entre el 7 de octubre de 2023 y marzo del año siguiente, el uso de inteligencia artificial de Microsoft y OpenAI por parte del ejército israelí se disparó hasta casi 200 veces los niveles previos a la guerra. Los datos almacenados en servidores de Microsoft se duplicaron en julio de 2024, alcanzando más de 13,6 petabytes, aproximadamente 350 veces la memoria digital necesaria para almacenar todos los libros de la Biblioteca del Congreso.

¿Los modelos de IA que impulsan estos sistemas? Provienen de OpenAI, el creador de ChatGPT, se distribuyen a través de la plataforma en la nube Azure de Microsoft  y fueron adquiridos por el ejército israelí.

“Esta es la primera confirmación que hemos recibido de que los modelos comerciales de IA se están utilizando directamente en la guerra , afirma Heidy Khlaaf, científica jefe de inteligencia artificial del AI Now Institute.

En una conferencia militar de 2014  titulada «Tecnologías de la Información para las FDI», las implicaciones se hicieron patentes cuando la coronel Racheli Dembinsky, alta funcionaria de informática del ejército israelí, describió cómo la IA había proporcionado una «eficacia operativa muy significativa» en Gaza. En la pantalla tras ella aparecieron los logotipos de Microsoft Azure, Google Cloud y Amazon Web Services  . «Ya hemos llegado a un punto en el que nuestros sistemas realmente la necesitan», afirmó.

Google y Amazon tampoco son meros espectadores. Mediante el Proyecto Nimbus , un contrato de 1200 millones de dólares firmado en 2021, ambas compañías proporcionan servicios de computación en la nube e inteligencia artificial directamente a las Fuerzas de Defensa de Israel. Además, existen indicios de que incluso Meta está implicada: los metadatos de WhatsApp podrían estar alimentando el sistema de segmentación Lavender.

Gaza como laboratorio

Esto no es algo nuevo para Gaza. Durante décadas, Israel ha utilizado la Franja como una especie de campo de pruebas para armas y tecnologías de vigilancia. Lo que se prueba en Gaza se perfecciona, se empaqueta y se vende a nivel mundial.

La vigilancia que alimenta estos sistemas de IA es igualmente escalofriante. Una investigación del New York Times reveló que el ejército israelí desplegó un extenso sistema de reconocimiento facial en Gaza, «recopilando y catalogando los rostros de los palestinos sin su conocimiento ni consentimiento». Actividad en redes sociales, registros telefónicos, rutinas diarias: todo se captura, analiza y se introduce en sistemas de IA que convierten la vida cotidiana en datos para la focalización.

Tu trayecto matutino al trabajo, tus llamadas telefónicas, dónde rezas y dónde van tus hijos al colegio; todo eso se convierte en información de inteligencia, y todo eso te convierte en un objetivo.

El ajuste de cuentas legal

En septiembre de 2025, la Comisión Internacional Independiente de Investigación de las Naciones Unidas sobre el Territorio Palestino Ocupado concluyó  que Israel había cometido genocidio contra los palestinos en Gaza. La Comisión determinó que las autoridades israelíes cometieron cuatro de los cinco actos de genocidio definidos en la Convención para la Prevención y la Sanción del Delito de Genocidio de 1948.

Un dictamen jurídico encargado por las organizaciones de derechos humanos Al-Haq  y SOMO  sugiere que las empresas tecnológicas que prestan servicios esenciales para las operaciones militares israelíes podrían estar contribuyendo directamente a violaciones del derecho internacional humanitario y, posiblemente, a actos de genocidio. El análisis señala que, según el derecho penal internacional, «la complicidad directa requiere participación intencional, pero no necesariamente la intención de causar daño, sino solo el conocimiento de los efectos nocivos previsibles».

En otras palabras, la ignorancia no es una defensa.

La relatora especial de la ONU, Francesca Albanese, ha señalado a 48 empresas, entre ellas Microsoft y Alphabet (la empresa matriz de Google),  por colaborar con la guerra de Israel contra Gaza, en violación del derecho internacional. Su informe halló “motivos razonables” para creer que Palantir proporcionó tecnología utilizada para la toma de decisiones automatizada en el campo de batalla y la generación de listas de objetivos mediante sistemas de inteligencia artificial como Lavender.

Ben Saul, otro relator especial de la ONU, lo expresó sin rodeos: si los informes sobre el uso de la IA por parte de Israel son exactos, “muchos ataques israelíes en Gaza constituirían crímenes de guerra por lanzar ataques desproporcionados”.

El costo humano

Las cifras son estremecedoras, pero no reflejan la realidad. Desde que comenzó la guerra, más de 60.000 personas han muerto en Gaza, sin contar las que perdieron la vida en el Líbano. Algunos informes sugieren que hay otros cien mil muertos bajo los escombros en la Franja, mientras que los datos muestran que casi el 70% de los edificios de Gaza han sido destruidos o dañados.

Detrás de cada estadística hay un nombre. Un rostro. Una vida.

«Cuando una niña de 3 años muere en su casa en Gaza, es porque alguien del ejército decidió que su muerte no tenía mayor importancia, que era un precio que valía la pena pagar para alcanzar [otro] objetivo», declaró una fuente de inteligencia militar israelí a +972Magazine.  «Estos no son cohetes lanzados al azar. Todo es intencional. Sabemos con exactitud el daño colateral que se produce en cada hogar».

Los sistemas en sí mismos presentan fallas fundamentales. Un informe del Instituto Judío para la Seguridad Nacional de Estados Unidos (JNSA ) identificó un problema crítico: el sistema contaba con datos sobre qué constituía un objetivo, pero carecía de datos sobre qué no lo era. La información de inteligencia que los analistas humanos habían examinado y considerado no amenazante simplemente se descartaba. La IA aprendía únicamente de ejemplos positivos de objetivos, lo que generaba un sesgo inevitable.

“El hecho de que se estén utilizando sistemas de IA indica una falta de respeto por parte del Estado israelí”, afirma Ramesh Srinivasan, profesor de la UCLA. “Todo el mundo sabe que estos sistemas de IA cometerán errores”.

Y sin embargo, según los informes, muchos operadores confiaban tanto en Lavender que aprobaban sus objetivos sin verificarlos en absoluto.

Disidencia desde dentro

No todos los que trabajan en estas empresas se sienten cómodos.

Empleados de Amazon, Google, Microsoft y Palantir  han cuestionado públicamente el papel de sus empresas en la guerra impulsada por IA. Algunos han mencionado una posible complicidad en crímenes de guerra. Microsoft enfrentó críticas internas por proporcionar servicios de Azure a la Unidad 8200, la unidad de inteligencia de señales de Israel. Tras la publicación de un reportaje de The Guardian que revelaba que datos de vigilancia masiva en Gaza y Cisjordania, incluyendo registros de llamadas telefónicas, se estaban utilizando para identificar objetivos de bombardeo, Microsoft abrió una investigación. En septiembre de 2024, la compañía suspendió el acceso de la Unidad 8200 a los servicios de Azure.

El colapso de la “IA para el bien”

Bajo lemas como «Inteligencia Artificial para el Bien», las empresas tecnológicas nos han prometido innovación ética y progreso social. Han hablado de democratizar la información, conectar a la humanidad y resolver desafíos globales. Sin embargo, en Gaza, esas promesas yacen en ruinas, literalmente, entre los escombros de hogares atacados mediante algoritmos.

Lo que presenciamos es la apoteosis de las tendencias más peligrosas de la IA: la vigilancia biométrica masiva, la policía predictiva y la toma de decisiones automatizada sobre la vida y la muerte. Tecnologías que, según defensores de los derechos humanos, deberían prohibirse incluso en tiempos de paz, se están desplegando ahora en lo que expertos de la ONU califican inequívocamente de genocidio.

«Cuando surgen señales y pruebas claras de genocidio, la inacción para detenerlo equivale a complicidad», declaró la presidenta de la Comisión, Navi Pillay. «Cada día de inacción cuesta vidas y erosiona la credibilidad de la comunidad internacional» .

Pero como advierte Paul Scharre del Centro para una Nueva Seguridad Estadounidense (CNAS ), “el ritmo de la tecnología está superando con creces el ritmo del desarrollo de políticas”.

El daño ya está hecho. El precedente está sentado.

¿Qué sigue?

Gaza ha respondido a una pregunta de forma definitiva: la IA puede ser, y está siendo, utilizada como arma para el asesinato en masa.

Pero quedan dos preguntas sin respuesta. ¿Permitiremos que las corporaciones que se benefician de esta violencia escapen a la justicia? ¿Afrontarán los gigantes de Silicon Valley las consecuencias por proporcionar la infraestructura del genocidio, o seguirán cobrando sus contratos multimillonarios mientras hacen declaraciones vacías sobre la IA ética?

¿Permitirá la comunidad internacional que este nuevo paradigma de asesinatos automatizados y algorítmicos se normalice? ¿Se convertirán sistemas como “¿Dónde está papá?” y otros similares en el modelo para las guerras del futuro?

En Gaza, ahora mismo, un niño está jugando. Un algoritmo podría estar ya observándolo. Un centro de datos en California podría estar ya calculando su muerte. Una corporación podría estar ya lucrándose.

El futuro de la guerra no está por venir. Está aquí. Y lo están construyendo empresas cuyos logotipos vemos a diario, cuyos productos llevamos en nuestros bolsillos, cuyos servicios utilizamos sin pensarlo.

La única pregunta que queda es: ¿qué vamos a hacer al respecto?

Marwa Fatafta  | Al-Shabaab.org Inteligencia artificial para la guerra: Las grandes tecnológicas potencian los crímenes y la ocupación de Israel

Resumen ejecutivo

Los gigantes tecnológicos estadounidenses se presentan como innovadores éticos que dan forma a un mundo mejor mediante la inteligencia artificial (IA) y la computación en la nube. Sin embargo, en Gaza, estas narrativas se han derrumbado. Los sistemas de IA, las infraestructuras en la nube y las herramientas de vigilancia proporcionadas por empresas tecnológicas como Google, Amazon, Microsoft y Palantir se han vuelto fundamentales para la campaña genocida de Israel contra los palestinos.

Introducción

Los gigantes tecnológicos estadounidenses se presentan como arquitectos de un mundo mejor impulsado por la inteligencia artificial (IA), la computación en la nube y las soluciones basadas en datos. Bajo lemas como «IA para el bien », se comprometen a ser administradores éticos de las tecnologías que transforman nuestras sociedades. Sin embargo, en Gaza, estos discursos  se han derrumbado, junto con las normas internacionales y lo que queda del llamado orden basado en reglas.

La guerra genocida del régimen israelí en Gaza ha puesto de relieve  el papel de las grandes empresas tecnológicas en el apoyo a las operaciones militares y el sostenimiento de la ocupación. Tras la destrucción israelí se esconden servidores, redes neuronales y sistemas de software desarrollados y desplegados por algunas de las corporaciones más poderosas del mundo. La creciente militarización de las tecnologías e infraestructuras digitales, especialmente visible en el despliegue por parte de Israel de sistemas basados ​​en inteligencia artificial y análisis de datos en Gaza, ha reconfigurado los debates sobre la rendición de cuentas y ha dejado al descubierto graves deficiencias en los marcos de gobernanza existentes. Este informe analiza cómo la responsabilidad de las empresas tecnológicas se extiende ahora a la posible complicidad en crímenes de guerra, crímenes de lesa humanidad y genocidio, subrayando la urgente necesidad de nuevos enfoques para regular la militarización de la inteligencia artificial.

Un genocidio impulsado por IA

El régimen israelí desplegó por primera vez sistemas de IA para generar y priorizar objetivos letales durante el bombardeo de Gaza, que duró 11 días en mayo de 2021 , un ataque brutal e ilegal que el ejército israelí describió posteriormente como su primera “guerra con IA”. Desde entonces, las fuerzas de ocupación han ampliado significativamente su dependencia de las herramientas de IA, utilizando la computación en la nube y el aprendizaje automático para almacenar y procesar enormes volúmenes de datos de vigilancia, desde imágenes satelitales hasta comunicaciones interceptadas , para automatizar la identificación y clasificación de objetivos para el ataque.

El Proyecto Nimbus , un contrato de 1200 millones de dólares mediante el cual Google y Amazon han proporcionado al gobierno y al ejército israelíes infraestructura avanzada en la nube y capacidades de aprendizaje automático, es  fundamental para la guerra con IA de Israel  . En los primeros días del genocidio, las fuerzas israelíes, según informes,  dependieron casi exclusivamente de sistemas de generación de objetivos impulsados ​​por IA —como Lavender, The Gospel y Where’s Daddy— para acelerar la matanza y la destrucción masivas en Gaza. Estas plataformas procesan datos de vigilancia masiva de toda la población de Gaza para determinar algorítmicamente —a gran escala— quién debe ser asesinado, qué edificios deben ser bombardeados y cuántos daños colaterales se consideran aceptables.

De manera alarmante, estos sistemas impulsados ​​por IA internalizan la lógica genocida de sus operadores . Están entrenados para tratar a los civiles como “terroristas”, basándose en la lógica genocida de los funcionarios israelíes que declararon que ”no hay civiles inocentes en Gaza “. Como parte de los esfuerzos por automatizar la selección de objetivos letales, los comandantes militares supuestamente instruyeron a los soldados  para que identificaran e introdujeran en el sistema el mayor número posible de objetivos. Esto reduce considerablemente el umbral para designar a individuos como “militantes de Hamás”, abarcando una amplia gama de sujetos marcados algorítmicamente. A pesar de su alto margen de error , el único criterio que los soldados israelíes aplicaban a la lista de objetivos de Lavender era el género, lo que convertía a todos los varones palestinos —niños y adultos por igual— en objetivos legítimos. En la práctica, la tecnología de IA ha permitido que la lógica genocida del régimen israelí se ejecute con una eficiencia despiadada e impulsada por máquinas, reduciendo a los palestinos, sus familias y sus hogares a lo que los militares denominan escalofriantemente “objetivos basura”.

Aunque muchos de los detalles técnicos de los sistemas de inteligencia artificial israelíes para la selección de objetivos permanecen clasificados, existen numerosas pruebas creíbles  de que su funcionamiento depende  de la infraestructura en la nube y las capacidades de aprendizaje automático desarrolladas y mantenidas por importantes empresas tecnológicas, como Google, Amazon, Microsoft y Palantir. En consecuencia, el suministro directo por parte de estas empresas de sistemas digitales utilizados en la guerra israelí plantea interrogantes urgentes sobre la complicidad corporativa en graves violaciones del derecho internacional, incluidos actos por los que la Corte Penal Internacional (CPI) ha emitido órdenes de arresto  contra el primer ministro israelí, Benjamín Netanyahu, y el exministro de Defensa, Yoav Gallant.

Del código a las listas de asesinatos

A medida que Israel intensificaba su ofensiva contra Gaza, su demanda de inteligencia artificial y tecnologías en la nube, suministradas por gigantes tecnológicos estadounidenses, creció rápidamente , integrando la infraestructura corporativa en la maquinaria bélica. En marzo de 2024, Google estrechó sus lazos con el Ministerio de Defensa israelí (IMOD) al firmar un nuevo contrato  para construir una «zona de aterrizaje» especializada en su infraestructura en la nube, lo que permitió a múltiples unidades militares acceder a sus tecnologías de automatización. Según informes, Amazon Web Services (AWS), socio de Google en el Proyecto Nimbus, proporcionó a  la Dirección de Inteligencia Militar de Israel un centro de datos dedicado con capacidad de almacenamiento ilimitado para los datos de vigilancia recopilados sobre prácticamente toda la población de Gaza.

Informes recientes   han documentado aún más la rápida expansión de las capacidades militares israelíes basadas en inteligencia artificial, destacando cómo las crecientes alianzas con empresas tecnológicas han acelerado el despliegue de sistemas avanzados en su guerra contra Gaza. Según documentos filtrados, Microsoft alojó  en sus servidores en la nube elementos del programa de vigilancia masiva del ejército israelí, almacenando grabaciones de millones de llamadas telefónicas interceptadas de palestinos en Gaza y Cisjordania. Al parecer, las fuerzas de ocupación israelíes utilizaron estos archivos para identificar objetivos de bombardeo, extorsionar a personas, detener a individuos y justificar asesinatos a posteriori. La dependencia del ejército israelí de Microsoft Azure aumentó  considerablemente: en los primeros seis meses de la guerra, su uso mensual promedio se incrementó en un 60%, mientras que el uso de las herramientas de aprendizaje automático de Azure se multiplicó por 64 en comparación con los niveles previos a la guerra. Para marzo de 2024, el uso de herramientas tecnológicas de Microsoft y OpenAI por parte de las fuerzas israelíes era casi 200 veces mayor  que en la semana anterior al 7 de octubre de 2023. Además, la cantidad de datos almacenados en los servidores de Microsoft se había duplicado a más de 13 petabytes.

Los resultados de la revisión interna de Microsoft  , anunciados en septiembre de 2025, confirmaron que una unidad del Ministerio de Defensa israelí había utilizado algunos de sus servicios para fines de vigilancia prohibida. En consecuencia, la empresa suspendió ciertos servicios en la nube y de IA, admitiendo que su tecnología era cómplice de prácticas que contravenían sus términos de servicio. Sin embargo, la suspensión de los servicios de Microsoft al ejército israelí fue mínima: muchos contratos y funciones con el ejército israelí y otros organismos gubernamentales responsables de graves violaciones de derechos humanos y crímenes atroces permanecen vigentes. Si bien la revisión aún continúa, esta admisión limitada pone de manifiesto la complicidad de la empresa con el aparato militar israelí.

Además, la participación de las grandes tecnológicas en la guerra de Israel parece ir más allá de la mera prestación de servicios. Según informes, ingenieros de Microsoft han brindado  asistencia técnica, tanto remota como presencial, a las fuerzas israelíes, incluyendo la Unidad 8200 (operaciones cibernéticas y vigilancia) y la Unidad 9900 (inteligencia geoespacial y selección de objetivos). De hecho, el Ministerio de Defensa israelí contrató aproximadamente 19 000 horas de servicios de ingeniería y consultoría de Microsoft, valoradas en unos 10 millones de dólares. Amazon también se ha visto implicada, proporcionando, según se informa,  no solo infraestructura en la nube, sino también asistencia directa en la verificación de objetivos para ataques aéreos. El papel de Google plantea preocupaciones adicionales: según documentos internos , la empresa creó un equipo clasificado, compuesto por ciudadanos israelíes con autorización de seguridad, cuya función específica era recibir información sensible del gobierno israelí que no podía compartirse con el resto de la empresa. Este equipo se encargaría de impartir «formación especializada a las agencias de seguridad gubernamentales» y de participar en «ejercicios y simulacros conjuntos adaptados a amenazas específicas». No parece existir ningún acuerdo comparable entre Google y ningún otro Estado, lo que subraya la excepcional profundidad de su colaboración con el régimen israelí.

El afán de lucro no es el único factor que impulsa la creciente vinculación de las grandes tecnológicas con el ejército israelí; la afinidad política también influye. Palantir Technologies, una empresa estadounidense de análisis de datos y vigilancia conocida por sus estrechos lazos con las agencias de inteligencia y defensa, ha expresado abiertamente  su apoyo a Israel durante el genocidio de Gaza. Palantir se ha asociado con AWS para ofrecer herramientas diseñadas para ayudar a clientes, como el ejército israelí, a «ganar en el contexto bélico». La empresa firmó una alianza estratégica  con el Ministerio de Defensa israelí para proporcionar tecnologías que apoyan directamente la campaña genocida. Microsoft también mantiene vínculos de larga data con el aparato militar y de seguridad de Israel, vínculos tan estrechos que Netanyahu llegó a describir la relación como «un matrimonio predestinado, pero reconocido aquí en la tierra ».

Al brindar apoyo directo a las operaciones militares israelíes, las empresas tecnológicas no se limitan a suministrar infraestructura; facilitan y apoyan activamente la vigilancia, la selección de objetivos y la ejecución de acciones que violan el derecho internacional. En una evolución escalofriante, el despliegue de inteligencia artificial comercial en Gaza marca una frontera aterradora: sistemas que en su día se diseñaron para optimizar la logística y la toma de decisiones a gran escala ahora generan listas de objetivos, aniquilan familias y arrasan barrios enteros. La tecnología desarrollada y mantenida por las grandes tecnológicas sustenta ahora la guerra, la limpieza étnica y el genocidio en Palestina, sirviendo como prototipo  para el futuro de la guerra automatizada.

El futuro de la guerra

El régimen israelí ha formalizado su impulso hacia la guerra automatizada mediante la creación de una división especializada en investigación de IA  dentro del Ministerio de Defensa de Israel (IMOD), encargada de desarrollar capacidades militares para un futuro en el que «en los campos de batalla se verán equipos integrados de soldados y sistemas autónomos trabajando conjuntamente». Esta iniciativa supone un cambio significativo hacia la normalización del combate impulsado por IA. Gobiernos occidentales, como Francia , Alemania y Estados Unidos , están siguiendo trayectorias similares, compitiendo por integrar la inteligencia artificial en sus sistemas de armas y fuerzas armadas. En conjunto, estos avances posicionan a Israel no solo como uno de los primeros en adoptar esta tecnología, sino también como un modelo para la próxima era de la guerra algorítmica.

Paralelamente, las grandes empresas tecnológicas están abandonando sus límites éticos autoimpuestos en busca de contratos militares. A principios de este año, tanto Google  como OpenAI  abandonaron discretamente sus compromisos voluntarios de no desarrollar IA para uso militar, lo que indica una mayor alineación con los sectores de seguridad y defensa. A las pocas semanas de modificar sus principios de IA , Google firmó una alianza formal con Lockheed Martin, el mayor fabricante de armas del mundo y uno de los principales proveedores de armamento del ejército israelí. En noviembre de 2024, Meta anunció  que pondría sus grandes modelos de lenguaje, llamados Llama, a disposición de las agencias gubernamentales y contratistas estadounidenses que trabajan en seguridad nacional. Desde entonces, Lockheed Martin ha integrado  Llama en sus operaciones.

En su apuesta por la IA aplicada a la guerra, Meta se ha asociado con Anduril, una startup de tecnología de defensa, para desarrollar dispositivos de realidad virtual y aumentada para el Ejército estadounidense. A pesar de ser una organización sin ánimo de lucro, OpenAI colaboró  ​​con Anduril para desplegar su tecnología en el campo de batalla. Además, Palantir y Anthropic —una empresa de investigación y desarrollo de IA respaldada por Google—anunciaron  una alianza con AWS para facilitar el acceso de las agencias de inteligencia y defensa estadounidenses a sus sistemas de IA.

Un claro indicador de la creciente convergencia entre las grandes tecnológicas y los ministerios de guerra es la decisión del Ejército estadounidense   de otorgar a altos ejecutivos de Palantir, Meta, OpenAI y Thinking Machines Labs el rango de teniente coronel e integrarlos como asesores dentro de las fuerzas armadas. Presentada como un esfuerzo para «guiar soluciones tecnológicas rápidas y escalables a problemas complejos », la iniciativa busca hacer que el ejército estadounidense sea «más eficiente, más inteligente y más letal». El simbolismo es evidente: los líderes de Silicon Valley ya no se limitan a desarrollar herramientas para el campo de batalla; se están integrando formalmente en su estructura de mando.

Militarización de la IA en un vacío regulatorio

La militarización de la IA se está desarrollando rápidamente ante la ausencia de marcos regulatorios eficaces. Si bien los Estados continúan deliberando sobre normas para las armas autónomas  en la ONU, ningún tratado internacional vinculante rige específicamente su desarrollo o despliegue. Aún menos reguladas están las tecnologías de doble uso, como los sistemas de aprendizaje automático y la infraestructura en la nube, que ahora se están integrando en operaciones militares. Los recientes debates nacionales e internacionales  y las propuestas regulatorias  sobre la gobernanza de la IA, que a menudo se centran en la defensa de la privacidad y los derechos humanos, eluden en gran medida el devastador impacto de los sistemas de IA en zonas de conflicto . El ejemplo más ilustrativo de esta desconexión es  la firma porparte de Israel  del tratado sobre IA del Consejo de Europa , que aborda los derechos humanos, la democracia y el estado de derecho, en un momento en que surgían informes creíbles sobre su uso de sistemas de IA para la selección de objetivos en Gaza. Si bien el tratado contiene numerosas salvedades que limitan su eficacia, la firma de Israel en medio de una campaña de genocidio en curso subraya la profunda desconexión entre las normas jurídicas que se están elaborando y el despliegue en el campo de batalla de las tecnologías que pretenden regular.

Mientras tanto, las directrices voluntarias o los mecanismos de derecho blando se descartan sistemáticamente. Los Principios Rectores de las Naciones Unidas sobre las Empresas y los Derechos Humanos  (PRNU), que definen tanto las obligaciones de los Estados como las responsabilidades corporativas para identificar y mitigar los riesgos para los derechos humanos, son frecuentemente ignorados por las empresas tecnológicas. Si bien estos principios establecen claramente que las empresas que operan en zonas de conflicto deben tratar el riesgo de contribuir a graves abusos contra los derechos humanos y violaciones del derecho internacional humanitario como una cuestión de cumplimiento legal, las empresas tecnológicas siguen cumpliendo de forma selectiva. La tardía admisión de Microsoft de que el régimen israelí utilizó su infraestructura en la nube para la vigilancia masiva en Gaza es un ejemplo claro. En mayo de 2025, Microsoft negó  haber facilitado al régimen israelí el daño causado a los palestinos mediante la vigilancia masiva, para luego rectificar meses después con una admisión limitada del mal uso de su tecnología. Como se mencionó, esta admisión pone de manifiesto hasta qué punto las empresas incumplen su responsabilidad, en virtud de los PRNU, de identificar y mitigar este tipo de daños.


Fuente:https://al-shabaka.org/briefs/ai-for-war-big-tech-empowering-israels-crimes-and-occupation/

Por Saruman