Inicio MEDIO ORIENTE Las IDF aumentan el uso de IA para la adquisición de objetivos de Hamás mientras continúa la guerra – informe

Las IDF aumentan el uso de IA para la adquisición de objetivos de Hamás mientras continúa la guerra – informe

Por Gustavo Beron
0 Comentarios

Itongadol.- Las IDF utilizaron la IA para rellenar rápidamente su «banco de objetivos», una lista de terroristas de Hamás y Hezbolá que debían ser abatidos durante operaciones militares, junto con detalles sobre su paradero y rutinas, según un informe publicado en The Washington Post el domingo.

Algunos expertos consideran que el banco de objetivos es la iniciativa de IA militar más avanzada jamás desplegada.

Una de las herramientas de IA a las que se hace referencia se llama Habsora -o «el Evangelio»-, que podría generar rápidamente cientos de objetivos adicionales.

Sin embargo, el informe del Washington Post aborda detalles inéditos del funcionamiento interno del programa de aprendizaje automático, así como la historia secreta de su desarrollo, que dura ya una década.

El informe también revela un debate en el seno de los altos mandos de las IDF sobre la calidad de la inteligencia recopilada por la IA, si las recomendaciones de las tecnologías fueron objeto de suficiente escrutinio y si la atención prestada a la IA debilitó las capacidades de inteligencia de las IDF.

Algunos críticos sostienen que el programa de IA ha sido una fuerza entre bastidores que ha acelerado el número de muertos en Gaza.

«Lo que está ocurriendo en Gaza es el precursor de un cambio más amplio en la forma en que se libra la guerra», afirmó Steven Feldstein, investigador principal de Carnegie Endowment, que estudia el uso de la IA en la guerra. «Si combinamos eso con la aceleración que ofrecen estos sistemas -así como las cuestiones de precisión-, el resultado final es un número de muertos en la guerra mayor de lo que se había imaginado hasta ahora».

Las FDI dijeron que las afirmaciones de que su uso de la IA pone vidas en peligro están «fuera de lugar».

«Cuanta más capacidad se tiene para compilar piezas de información de manera eficaz, más preciso es el proceso», dijeron las FDI en una declaración a The Washington Post. «En todo caso, estas herramientas han minimizado los daños colaterales y aumentado la precisión del proceso dirigido por humanos».

El Evangelio y otras herramientas de IA no toman decisiones de forma autónoma, según un funcionario de inteligencia israelí que habló con The Washington Post.

Los algoritmos, que revisan montones de datos de comunicaciones interceptadas, imágenes de satélite y redes sociales, escupen las coordenadas de túneles, cohetes y otros objetivos militares. Las recomendaciones que superan el examen de un analista de inteligencia son colocadas en el «banco de objetivos» por un oficial superior.

Gracias al reconocimiento de imágenes del software, los soldados pueden desenterrar patrones sutiles, incluidos cambios minúsculos en años de imágenes por satélite de Gaza que sugieren que Hamás ha enterrado un lanzacohetes o excavado un nuevo túnel en terrenos agrícolas, comprimiendo el trabajo de una semana en 30 minutos, según declaró a The Washington Post un antiguo jefe militar que trabajó en los sistemas.

En la guerra entre Israel y Hamás, las estimaciones sobre el número de civiles que podrían resultar heridos en un bombardeo se obtienen mediante programas informáticos de minería de datos, que utilizan herramientas de reconocimiento de imágenes para analizar las imágenes de los aviones no tripulados junto con teléfonos inteligentes que hacen ping a las torres de telefonía móvil para contar el número de civiles en una zona, dijeron dos de las personas que hablaron con The Washington Post.

Las FDI afirman que sus evaluaciones de los daños colaterales se ajustan a la Ley de Conflictos Armados, que obliga a las naciones a diferenciar entre civiles y combatientes y a tomar precauciones para proteger vidas.

Algunos defensores del uso de la tecnología por parte de Israel argumentan que el despliegue agresivo de innovaciones como la IA es esencial para la supervivencia de un país pequeño que se enfrenta a enemigos decididos y poderosos.

«La superioridad tecnológica es lo que mantiene a Israel a salvo», dijo Blaise Misztal, vicepresidente de política del Instituto Judío para la Seguridad Nacional de América, quien fue informado por la división de inteligencia de las FDI sobre sus capacidades de IA en 2021. «Cuanto más rápido Israel sea capaz de identificar las capacidades enemigas y sacarlas del campo de batalla, más corta será una guerra, y tendrá menos bajas».

Sin embargo, las tecnologías, aunque ampliamente reconocidas como prometedoras, tenían limitaciones. A veces, el mero volumen de interceptaciones abrumaba a los analistas de la Unidad 8200. Por ejemplo, los operativos de Hamás utilizaban a menudo la palabra «batikh», o sandía, como código para una bomba, según declaró a The Washington Post una de las personas familiarizadas con los esfuerzos.

Sin embargo, una auditoría interna descubrió que el sistema no era lo suficientemente inteligente como para entender la diferencia entre una conversación sobre una sandía real y una conversación codificada entre terroristas. También se detectaron problemas con otras palabras y frases clave del argot. «Si recoge mil conversaciones al día, ¿realmente quiero oír hablar de todas las sandías de Gaza?», dijo la persona al Washington Post.

El ejército invirtió en nuevas tecnologías en la nube que procesaban algoritmos con rapidez en preparación para un conflicto previsto con Hezbolá en la frontera norte de Israel.

Lavender, un programa algorítmico desarrollado en 2020, analizaba los datos para elaborar listas de posibles terroristas de Hamás y la Yihad Islámica, dando a cada persona una puntuación que estimaba su probabilidad de ser miembro, según dijeron a The Washington Post tres personas familiarizadas con los sistemas.

Entre los factores que podían elevar la puntuación de una persona figuraban la pertenencia a un grupo de WhatsApp con un militante conocido, el cambio frecuente de direcciones y números de teléfono o el hecho de figurar en los archivos de Hamás, explicaron estas personas.

Las estimaciones de los distintos algoritmos se incorporaban al sistema paraguas, Gospel, que podía ser consultado por los analistas de inteligencia.

También te puede interesar

Este sitio utiliza cookies para mejorar la experiencia de usuario. Aceptar Ver más