top of page

Los riesgos de las armas controladas por inteligencia artificial



Más allá del riesgo evidente de que la inteligencia artificial se exceda en el uso de la violencia o la ejerza equivocadamente contra gente inocente, y del riesgo muy explorado por la ciencia-ficción de que la inteligencia artificial se rebele contra la humanidad haciendo uso del armamento puesto bajo su control, existen otros riesgos más sutiles pero no por ello menos preocupantes.


Desde hace décadas, se vienen utilizando en el ámbito militar armas autónomas como torpedos y misiles guiados por calor que funcionan basándose en una simple retroalimentación reactiva sin control humano. Sin embargo, la inteligencia artificial ha entrado ahora en este campo del automatismo en las armas y todo apunta a que ello acarreará cambios drásticos en muchas facetas del uso de armas en conflictos armados y también, indirectamente, en otros campos.



Según el equipo de Kanaka Rajan, profesora de neurobiología en el Instituto Blavatnik de la Escuela Médica de la Universidad Harvard en Estados Unidos, las armas autónomas controladas por inteligencia artificial no solo representan una nueva era en la guerra sino que además constituyen una amenaza para el progreso científico y la investigación básica.


Las armas controladas por inteligencia artificial, que a menudo implican drones u otros robots, se están desarrollando y desplegando activamente. Y todo apunta a que con el tiempo serán más sofisticadas y se utilizarán más.


A medida que eso ocurra, las armas con inteligencia artificial pueden conducir a la inestabilidad geopolítica y además su desarrollo podría afectar negativamente a la investigación no militar sobre inteligencia artificial en el ámbito académico y el empresarial.


El desarrollo de armas controladas por inteligencia artificial entraña una serie de riesgos, pero, según Rajan, son tres los principales. El primero es que estas armas pueden facilitar que los países se involucren en conflictos. El segundo es que la investigación científica no militar sobre inteligencia artificial puede ser censurada o confiscada para ayudar al desarrollo de estas armas y a su secretismo inherente. El tercero es que los militares pueden utilizar la tecnología armamentística con inteligencia artificial para reducir o desviar la responsabilidad humana en la toma de decisiones.


En cuanto al primer punto, uno de los principales elementos disuasorios que impiden a las naciones iniciar guerras es la muerte de sus soldados, un coste humano para sus ciudadanos que puede tener consecuencias internas muy graves para los dirigentes. Gran parte del desarrollo actual de armas controladas por inteligencia artificial tiene como objetivo alejar a los soldados humanos del peligro, lo que en sí mismo tiene un fin humanitario y loable. Sin embargo, si en una guerra mueren pocos soldados del bando que la ha iniciado, se debilita la asociación entre los actos de guerra y el coste humano, y resulta políticamente más fácil iniciar guerras, lo que, a su vez, puede provocar más muerte y destrucción en general, tal como razona Rajan. Así pues, podrían surgir rápidamente grandes problemas geopolíticos a medida que las armas controladas por inteligencia artificial proliferen.


En cuanto al segundo punto, Rajan se remite al ejemplo histórico de campos académicos como la física nuclear y la cohetería. A medida que estos campos adquirieron una importancia crítica para la defensa durante la Guerra Fría, los investigadores experimentaron restricciones de viaje, censura de publicaciones y la necesidad de una autorización de seguridad para realizar trabajos básicos. A medida que la inteligencia artificial se convierta en un elemento central de la planificación de la defensa nacional de los países, podríamos ver cómo se imponen restricciones similares a la investigación no militar sobre inteligencia artificial, lo que obstaculizaría enormemente la investigación básica sobre inteligencia artificial, así como las aplicaciones civiles en áreas como la medicina y la investigación científica en general, y dificultaría también la colaboración internacional entre científicos del sector.



Por último, Rajan pronostica que si las armas controladas por inteligencia artificial se convierten en el núcleo de la defensa nacional, es posible que en los países donde ocurra eso veamos grandes intentos de desviar el trabajo en el campo de la inteligencia artificial realizado por científicos del ámbito académico y de la empresa privada hacia aplicaciones prácticas en el ámbito armamentístico, o de fomentar que toda investigación en inteligencia artificial hacia otros fines tenga también una vertiente militar.


El equipo de Rajan, que también incluye a Riley Simmons-Edler y Ryan Badman, de la Universidad Harvard, así como a Shayne Longpre, del Instituto Tecnológico de Massachusetts (MIT) en Estados Unidos, ha presentado su análisis de estos riesgos en un congreso internacional sobre inteligencia artificial (2024 International Conference on Machine Learning)

Comments


bottom of page