Por IGNACIO CONCHA MORELLI
La Inteligencia Artificial (IA) en nuestros días está presente en todas las áreas de las actividades humanas, con un grado de dependencia cada vez más preocupante. Existe además un debate ético en el empleo de las armas autónomas con IA en los conflictos actuales, ante lo cual cabe cuestionarse: ¿Podrá la IA reemplazar a los comandantes en el nivel operacional, en la toma de decisiones? Esta tecnología no reemplaza el discernimiento humano aún, sin embargo, es una herramienta fundamental.
Artificial Intelligence (AI) is nowadays present in all aspects of human activities, with an increasingly alarming degree of dependence. There is also an ethical debate on the use of autonomous weapons with AI in current conflicts, which raises the question of whether AI can replace commanders at the operational level in decision-making. This technology has not yet replaced human judgment; however, it is an essential tool.
Desde una perspectiva histórica, las “máquinas inteligentes” nacieron en el ámbito de la defensa para tomar decisiones operacionales. En 1940, el científico inglés Alan Turing fue quien quebró el código de la máquina criptográfica Enigma, automatizando su decodificación con un computador electromecánico, y fue el primero en plantear que las máquinas podían pensar, por lo que se le considera el padre de la computación moderna y de la Inteligencia Artificial (IA). Luego de un largo trayecto de investigación, en el año 2011, las supercomputadoras y los computadores cuánticos1 permitieron diseñar nuevos algoritmos que han dado a la tecnología un salto exponencial y sorprendente hasta la fecha (Jordán, 2024, p45).
El concepto de IA se define como “la capacidad de las máquinas de razonar, aprender o llevar a cabo tareas asociadas a la inteligencia humana, gracias a los datos que almacenan” (Acebes, 2023). Se compone de tres elementos fundamentales: datos, computación y algoritmos. Estos últimos también conocidos como Machine Learning, son programas que permiten cumplir con los requerimientos del usuario. Un subconjunto dentro de Machine Learning es Deep Learning, que utiliza redes neuronales artificiales. La combinación de estos elementos permite que las máquinas aprendan, corrijan errores y tomen decisiones de manera autónoma. Si sumamos las grandes cantidades de datos (Big Data) y las capacidades computacionales, la IA puede procesar y analizar vastas cantidades de información a gran velocidad (Gómez, 2024, p46). Dadas las ventajas que presentan estas tecnologías, muchos países las han orientado al área de la defensa, y en algunos niveles incluso toman decisiones militares de manera autónoma.
Las aplicaciones de la IA en el ámbito de la defensa son variadas, y los beligerantes de los conflictos actuales las emplean en los tres niveles de conducción: Estratégico2, Operacional y Táctico3 (dejando fuera de análisis el nivel político). Para comprender las decisiones operacionales, donde se enfocará el presente trabajo, Milan Vego explica que éstas se diferencian según el efecto o las consecuencias que se tengan en un conflicto. Las decisiones operacionales buscan un efecto en la campaña u operación mayor, sobre todo en la fase del empleo del potencial bélico; En este nivel se decidirán los cambios en los objetivos originales, el cambio de la ofensiva a la defensiva, concentración, maniobra, sincronización, ordenar pausas operacionales y la consolidación del objetivo operacional (Vego, 2009, pX-67). La IA, como veremos a continuación, puede ser de gran ayuda, pero también puede tener efectos negativos en la toma de decisiones en el nivel operacional.
En la actualidad, existe un debate sobre el empleo de la IA en el área de la defensa, provocado por las consecuencias negativas que podrían tener estas tecnologías en la toma de decisiones; sin embargo, las ventajas que se pueden obtener de ella no se pueden desconocer. Considerando que esta capacidad ayuda a resolver problemas complejos, cabe cuestionarse: ¿podría entonces la IA tomar las decisiones operacionales en remplazo del comandante? En concreto, el presente artículo sostiene que las decisiones a nivel operacional deben ser exclusivamente del ser humano y la IA debe ser empleada como una herramienta más en ese proceso, principalmente por dos razones: primero, porque la incorporación de la IA como herramienta ayuda a los comandantes a tomar decisiones más rápidas y precisas; en segundo lugar, la confianza absoluta en los sistemas de IA podrían ocasionar errores, debido a la vulnerabilidad de su algoritmo y a posibles sesgos en sus componentes.
En primer lugar, el discernimiento del comandante en la toma de decisiones militares es necesario para disminuir las posibilidades de errores que comprometan vidas humanas. Una de las grandes preocupaciones de las organizaciones internacionales, en relación con el empleo de estas tecnologías, es el riesgo del daño colateral. La Asamblea General de Naciones Unidas instó a todos los Estados miembros a “abstenerse de utilizar sistemas de IA que no cumplan con las normas internacionales de los derechos humanos” (ONU, 2024). Este llamado demuestra la desconfianza en la IA y que el juicio humano es irremplazable, especialmente en decisiones críticas que comprometan la seguridad de las personas. El temor a la delegación de decisiones a las máquinas se debe principalmente a su autonomía4. Mary Warham, líder opositora en esta materia y directora de la campaña “Ban Killer Bots”, junto con distintas ONGs, han puesto sobre la mesa los cuestionamientos éticos de entregar el poder de decisión letal a las máquinas. Su organización destaca a los Killer Bots, consistente en un programa de tecnología militar que busca remplazar al soldado común por robots con IA. Según explica, estas armas están diseñadas en base a algoritmos capaces de reconocimiento facial, identificar blancos y atacarlos, sin ninguna intervención humana (Chan, 2019). Es relevante aclarar que los sistemas de armas autónomos, que generalmente han sido criticados, se encuentran en el nivel táctico y no en el nivel operacional; sin embargo, es necesario considerar la aprensión de las organizaciones transnacionales en esta materia.
Las preocupaciones mencionadas anteriormente tienen validez y los hechos así lo demuestran. La IA no está exenta de errores en sus decisiones militares, como se pudo identificar durante las pruebas operacionales del dron XQ-58A Valkyrie, de la Fuerza Aérea de los EE.UU. En sus verificaciones de laboratorio, la aeronave programada con IA tomó la decisión de eliminar a su operador en tierra, dado que este vetaba o autorizaba la destrucción de blancos interfiriendo en sus algoritmos, por lo tanto, atacó la fuente que impedía el cumplimiento de su misión (Villalba, 2023). Este es un ejemplo que demuestra que los sistemas de IA pueden cometer errores. En consecuencia, es razonable cuestionarse su total autonomía y necesario el juicio del comandante.
En línea con lo anterior, los avances de la IA como herramienta en el nivel operacional permiten que el comandante tome decisiones de manera más rápida y precisa. A pesar de las críticas, no se puede desconocer que los sistemas de IA aportan de manera contundente a la toma de decisiones del comandante. Tanto Rusia como Ucrania emplean la IA; este último ha estado mejorando la precisión de sus ataques mediante información recopilada y procesada por sus sistemas C25 de los cuales Arthur Holland, investigador, en un documento para el CICR6, indica: “una actividad de búsqueda, reconocimiento y análisis (ISR) de objetivos que tomaba horas puede reducirse a minutos” (Stolle, 2024). Esta herramienta aporta valiosa información a la función de fuegos, para una mejor priorización de los blancos. Por otra parte, la IA le otorga al conductor operacional una significativa ventaja en la rapidez de la construcción del Panorama Operacional Común (COP). Durante el año 2001 la Royal Navy, junto con Microsoft y Amazon, elaboraron un sistema de IA para integrar data de diversos sensores. Las empresas norteamericanas colaboraron con BAE systems para conducir las operaciones; Asimismo, el sistema de IA llamado Stormcloud sugirió al comandante cursos de acción confiables y rápidos al Headquarter (HQ) (Stolle, 2024). Otro aspecto relevante es la conciencia situacional o Situational Awareness; a medida que avanzan las operaciones, crece también el volumen y velocidad de la información, limitando la capacidad humana. En ese caso, la IA permitiría un entendimiento más rápido y completo de la situación operacional (Horowitz, 2018). Estas ventajas que otorga la IA, permiten al comandante tomar decisiones más rápidas y precisas ganando tiempo para mantener la iniciativa.
Desde una perspectiva más amplia, las ventajas en el ámbito de la logística del nivel operacional son significativas para la toma de decisiones. Un estudio reciente de la RAND Corporation y expertos en la materia pudieron predecir el momento exacto en que aeronaves A-10C tendrían que someterse a mantenimiento, evitando fallas y exceso de repuestos en inventario (Stolle, 2024). Sin duda, esta herramienta se podría aplicar en todos los procesos de una campaña, entregándole mayor exactitud y eficiencia a las proyecciones logísticas. Una consideración al respecto para el logro de decisiones acertadas nos indica que es fundamental contar con datos precisos y de calidad, aspectos que proporciona la IA con sus procesos de análisis; eso permitirá sostener y proyectar las fuerzas en operaciones de multidominio7 (Quijarro, 2024, p124). El sostenimiento de las fuerzas es una “función habilitadora” en las operaciones, en ese sentido la IA, entrega un valioso aporte a los tomadores de decisiones.
Los sistemas de IA son una importante herramienta que permite a los comandantes operacionales tomar decisiones con un mayor grado de acierto, mitigando los errores que se podrían generar en un sistema autónomo. Las ventajas en múltiples áreas de la conducción operacional son considerables, mejorando los procesos de toma de decisiones.
En segundo término, el algoritmo de la IA es vulnerable al engaño, y podría inducir a errores en sus procesos, los cuales lleven a las máquinas a tomar decisiones operacionales incorrectas. Un gran problema que presenta la IA es que sus algoritmos pueden ser intervenidos por terceros. Un hecho particular ocurrió con la empresa de tecnología China Tencent, quienes pudieron modificar parte de los algoritmos de la IA de los autos Tesla (Knight, 2019). Si bien no es un caso de algoritmos militares, no se descarta que pudiesen verse vulnerados de la misma manera. Will Knight, investigador de MIT Technology Review, señala: “La inteligencia artificial podría automatizar y optimizar muchos procesos de guerra, pero sus algoritmos son increíblemente fáciles de engañar (…) Cualquiera que aprenda a confundir los sistemas de sus rivales, obtendría una gran ventaja” (Knight, 2019). Esta condición, inherente de esta tecnología imperfecta, demuestra que las decisiones que tome un comandante deberán al menos considerar este margen de error del sistema. Otra manera de afectar el procesamiento de la información y análisis de la IA es modificar la veracidad de la información que se recopila, la intervención de datos que hacen que el algoritmo sea incapaz de distinguir entre un blanco verdadero o uno ficticio. En consecuencia, la impresionante capacidad de información que se procesa también puede ser un problema. Las operaciones de ISR recopilan del ciberespacio data de distintas fuentes, cada vez más amplias, y las agencias de inteligencia de los EE.UU. obtienen más datos en 1 día de lo que toda su fuerza laboral podría obtener en un año. Por lo tanto, “un engaño será más difícil de identificar”, debido a la cantidad de puntos de data, en un mar de información donde es difícil “discernir la verdad” (Heller, 2019). La discriminación de la información es fundamental y en el proceso de toma de decisiones del comandante se deberá cuestionar el origen de los datos que el sistema está procesando.
Con relación a lo anterior, otro factor que podría inducir a errores en la toma de decisiones son los sesgos en los datos y programación. La IA puede reflejar los sesgos de las personas que la crean y no necesariamente pueden ser intencionales, sino que podrían ser consecuencia de las diferentes culturas, formas de expresarse o simplemente por falta de datos, los cuales al realizar un análisis de probabilidad (en virtud de los datos disponibles), pueden tener una tendencia a sobreestimar la ocurrencia de un evento (Arriagada, 2024, p31). Para la toma de decisiones del nivel operacional, la comprensión de este concepto es fundamental. En el año 2018, la empresa Google creó un multidisciplinario consejo para la ética en la IA, a raíz de las críticas de los programadores de la Universidad de Stanford, quienes fueron cuestionados por la falta de diversidad de los programadores (Levin, 2019). Hoy los principales centros de programación, como universidades y empresas de tecnología en EE.UU., se esfuerzan en demostrar la transparencia y entendimiento en la programación de los algoritmos que se encuentran en diseño, así lo muestran las estadísticas del Artificial Intelligence Index Report 2024. Los informes en esta materia se han triplicado entre el 2019 y el 2024, explicando de manera clara y comprensible sus escenarios y predicciones de los sistemas IA en desarrollo (Stanford, 2024, p180) Los sesgos de los sistemas de IA también son un factor a considerar en la toma de decisión del comandante, para evitar el riesgo de daños colaterales.
De esta manera, los sesgos existentes en las máquinas pueden tener efectos negativos en las decisiones. Israel ha empleado durante el presente conflicto el sistema Lavender, el cual tiene como propósito crear una “sinergia” entre el humano y la IA en la identificación y ataque a blancos humanos. El sistema identifica los militares de Hamás y PIJ (Palestinian Islamic Jihad) y los introduce en un ranking de prioridades para potenciales ataques, lo que podría ser parte de un análisis de targeting. En la primera semana del conflicto, Lavender obtendría al menos 37.000 sospechosos palestinos para posibles ataques aéreos. De acuerdo a la información otorgada por oficiales de inteligencia que han participado de las operaciones, el tiempo en promedio que tardaba el conductor operacional era de 20 segundos, para cada autorización de ataque, estando en conocimiento de que el sistema tiene un 10% de margen de error (Abraham, 2024), demostrando con esto una débil conexión entre el sistema y el comandante, sin un análisis crítico para una mejor toma de decisiones y sin comprender los posibles sesgos de la máquina.
Por lo tanto, es necesario destacar que los errores de una decisión operacional generados por las imperfecciones de la IA se pueden traducir en daño colateral. Considerando que la IA puede ser vulnerada, afectando sus algoritmos o modificando la data provocando información errónea, esto podría llevar a decisiones erradas en la conducción.
Desde una postura contraria a lo mencionado anteriormente, algunos expertos indican que en el futuro las decisiones serán tomadas por la IA, las capacidades de estos sistemas superarán a la mente humana y su empleo disminuirá significativamente el riesgo de una mala decisión en el nivel operacional. Como se mencionó anteriormente, deep learning se compone de algoritmos que imitan las redes neuronales humana., El cerebro tiene cerca de 100 billones de redes neuronales y hasta el 2019 el sistema de IA más moderno contaba 1 billón. Sin embargo, las limitaciones que tiene la IA hoy están siendo corregidas, y “se espera que hacia el año 2040 su nivel sea equivalente al de un ser humano y para el 2060 la supere” (Jordán, 2024, p47). Otro punto de vista planteado es: si entendemos que la IA tendrá mejores resultados, ¿existirá la conveniencia de dejar las decisiones operacionales en seres humanos? Keith Dear, exoficial de la Royal Air Force, quien trabaja en Fujitsu, firma japonesa conocida por tecnología en defensa con IA, explica una mirada diferente: “si las máquinas producen menores datos de falsos negativos y falsos positivos que el ser humano, particularmente bajo presión, no sería ético no delegar la autoridad en ellas” (Stolle, 2024). En base a los avances tecnológicos, se puede vislumbrar que en el futuro las decisiones operacionales serán tomadas por la IA, dado que tendrán un menor riesgo de errores que las decisiones humanas.
Ahora bien, independiente de lo anterior, la IA nunca podrá igualar a la inteligencia humana para la toma de decisiones, dado que la mente tiene características que son irremplazables. Gabriela Arriagada, profesora de ética de la IA de la Universidad de Chile, indica que la IA nunca llegará a tener capacidades humanas, porque carece de aspectos como las emociones, creatividad y conciencia. Muchas de las decisiones que se toman a veces parecen ser “poco lógicas o estructuradas”, eso porque hay factores que inciden en la mente de las personas. En ese sentido, “la IA no tiene la capacidad para razonar moralmente, sino solo para imitar decisiones que tienen impacto moral” (Arriagada, 2024, p21). Es relevante mencionar, que existen características humanas fundamentales para la toma de decisiones como las emociones, creatividad, conciencia y principalmente la intuición. Esta última cualidad se describe en el artículo Los algoritmos y la libertad de acción del líder militar de la presente Revista, como “La sensación de incomodidad que tiene el comandante cuando algo parece andar mal (…) no es un sexto sentido mágico, es intuición, construida a través de años de experiencia, repetición y entrenamiento” (Cavada, 2021). Estas condiciones que inciden en las decisiones son fundamentales para obtener mejores resultados.
En conclusión, la IA es un gran apoyo para la toma de decisiones en el nivel operacional, gracias a la capacidad de analizar grandes volúmenes de información, contribuye a entregar datos más precisos y de manera más rápida, otorgando una gran ventaja en la conducción de las operaciones. Sin embargo, hay que reconocer que estas tecnologías no son perfectas y pueden ser vulneradas, con consecuencias graves. La confianza absoluta en las máquinas puede ser un “arma de doble filo” que se debe saber manejar, por lo que las decisiones siempre deberán ser del comandante. El conductor operacional además deberá comprender que estos sistemas desde su creación pueden tener sesgos, ya sea en los datos que se ingresan, como en los procesos algorítmicos que permiten a las máquinas “pensar”. La comprensión de esta materia es fundamental para el tomador de decisiones.
A pesar de que en el futuro existe una alta probabilidad de que la IA mejore sus procesos con las nuevas tecnologías, no dejará de ser una máquina, por lo tanto, no podrá tener cualidades fundamentales propias del ser humano, como la intuición, basada en el conocimiento, experiencias profesionales, entrenamiento, emociones, creatividad y conciencia. Estas características, también son esenciales para una buena toma de decisiones. Para finalizar, se debe reflexionar sobre estas nuevas capacidades y tener un pensamiento crítico, amplio, que logre integrar todos los factores disponibles, incluyendo las nuevas tecnologías, para tomar la mejor decisión en un conflicto, y siempre ejerciendo un liderazgo sólido, con pasión y voluntad de lucha, algo que las máquinas jamás podrán imitar e igualar.
Bibliografía
“El crimen organizado se combate como región o no se combate (Tohá, 2024)1" Miles de millones de personas utilizan...
La fiscalización pesquera es una tarea crítica para el mantenimiento de los ecosistemas marinos y la sostenibilidad de l...
El presente texto tiene el objetivo de referirse brevemente al cambio de los conceptos éticos que produce Aristóteles y ...
El presente texto tiene el objetivo de referirse brevemente acerca de los conceptos éticos que se desprenden de los escr...
En tiempos de individualismo y de prevalencia de las emociones por sobre la razón, como los que estamos viviendo, es opo...
Versión PDF
Año CXXXIX, Volumen 142, Número 1004
Enero - Febrero 2025
Inicie sesión con su cuenta de suscriptor para comentar.-