Información y Opinión

La Inteligencia Artificial nos acerca al Apocalipsis bélico



El gobierno chino, a través de sus portavoces militares y diplomáticos, se carga de razón al insistir en que cualquier aplicación de la inteligencia artificial en el ámbito bélico debe mantenerse bajo estricto control humano, preservando el principio de que las decisiones letales no pueden delegarse en algoritmos sin supervisión.

Esta postura no solo refleja una preocupación genuina por los riesgos éticos y de escalada incontrolable, sino que también sirve como crítica directa a países —especialmente Estados Unidos— que, según Pekín, avanzan hacia una militarización sin restricciones de la IA.

El riesgo mayor consiste en que “Los algoritmos aplicados a armamento autónomo podrían tomar decisiones letales sin intervención humana”.
---



La IA sin control puede destruirnos y llevarnos hasta escenarios como los de la serie de películar "Terminator"
El gobierno de China advierte que el uso de la Inteligencia Artificial (IA) en el ámbito militar genera riesgos inasumibles y un escenario “apocalíptico”.

China se suma a los numerosos expertos y pensadores que temen que la IA nos conduzca a la destrucción, si no es regulada y controlada de manera responsable y férrea.

La guerra en Medio Oriente ilustra la creciente importancia de la inteligencia artificial en los conflictos, especialmente para el análisis de información y la selección de objetivos.

Especialistas en estrategia militar coinciden en que la principal preocupación radica en los llamados sistemas de armas autónomas letales, capaces de identificar objetivos y ejecutar ataques sin una orden directa de un operador humano.

El analista militar chino y Coronel mayor retirado, Zhou Bo, explicó que la incorporación de inteligencia artificial en drones, misiles o plataformas de combate puede reducir los tiempos de decisión a milisegundos, lo que aumenta el riesgo de “errores catastróficos”.

El portavoz del Ministerio de Defensa, Jiang Bin, ha advertido recientemente que permitir que los algoritmos determinen “la vida o la muerte” erosiona las barreras morales de la guerra y podría desencadenar una “pérdida de control tecnológico” con consecuencias catastróficas.

A pesar de estas advertencias, el desarrollo de capacidades de IA militar continúa aceleradamente en todo el mundo, incluyendo en China misma, lo que pone de manifiesto la paradoja del actual panorama geopolítico: mientras se claman regulaciones internacionales férreas, la carrera por la supremacía tecnológica impulsa precisamente los sistemas que se dicen temer.

Expertos coinciden en que, sin un marco multilateral vinculante —similar al que rige las armas químicas o biológicas—, aumentará el riesgo de un error fatal o de una escalada involuntaria por decisiones autónomas.

El control responsable de la IA militar es urgente porque la velocidad de los algoritmos ya supera con creces la capacidad humana de reacción, recordándonos que el futuro de la guerra —y quizá de la humanidad— podría depender menos de la voluntad política que de una tecnología descontrolada que podría comportarse como asesina.

Francisco Rubiales

- -
Miércoles, 11 de Marzo 2026
Artículo leído 289 veces

También en esta sección: