La IA sin control puede destruirnos y llevarnos hasta escenarios como los de la serie de películar "Terminator"
El gobierno de China advierte que el uso de la Inteligencia Artificial (IA) en el ámbito militar genera riesgos inasumibles y un escenario “apocalíptico”.
China se suma a los numerosos expertos y pensadores que temen que la IA nos conduzca a la destrucción, si no es regulada y controlada de manera responsable y férrea.
La guerra en Medio Oriente ilustra la creciente importancia de la inteligencia artificial en los conflictos, especialmente para el análisis de información y la selección de objetivos.
Especialistas en estrategia militar coinciden en que la principal preocupación radica en los llamados sistemas de armas autónomas letales, capaces de identificar objetivos y ejecutar ataques sin una orden directa de un operador humano.
El analista militar chino y Coronel mayor retirado, Zhou Bo, explicó que la incorporación de inteligencia artificial en drones, misiles o plataformas de combate puede reducir los tiempos de decisión a milisegundos, lo que aumenta el riesgo de “errores catastróficos”.
El portavoz del Ministerio de Defensa, Jiang Bin, ha advertido recientemente que permitir que los algoritmos determinen “la vida o la muerte” erosiona las barreras morales de la guerra y podría desencadenar una “pérdida de control tecnológico” con consecuencias catastróficas.
A pesar de estas advertencias, el desarrollo de capacidades de IA militar continúa aceleradamente en todo el mundo, incluyendo en China misma, lo que pone de manifiesto la paradoja del actual panorama geopolítico: mientras se claman regulaciones internacionales férreas, la carrera por la supremacía tecnológica impulsa precisamente los sistemas que se dicen temer.
Expertos coinciden en que, sin un marco multilateral vinculante —similar al que rige las armas químicas o biológicas—, aumentará el riesgo de un error fatal o de una escalada involuntaria por decisiones autónomas.
El control responsable de la IA militar es urgente porque la velocidad de los algoritmos ya supera con creces la capacidad humana de reacción, recordándonos que el futuro de la guerra —y quizá de la humanidad— podría depender menos de la voluntad política que de una tecnología descontrolada que podría comportarse como asesina.
Francisco Rubiales
China se suma a los numerosos expertos y pensadores que temen que la IA nos conduzca a la destrucción, si no es regulada y controlada de manera responsable y férrea.
La guerra en Medio Oriente ilustra la creciente importancia de la inteligencia artificial en los conflictos, especialmente para el análisis de información y la selección de objetivos.
Especialistas en estrategia militar coinciden en que la principal preocupación radica en los llamados sistemas de armas autónomas letales, capaces de identificar objetivos y ejecutar ataques sin una orden directa de un operador humano.
El analista militar chino y Coronel mayor retirado, Zhou Bo, explicó que la incorporación de inteligencia artificial en drones, misiles o plataformas de combate puede reducir los tiempos de decisión a milisegundos, lo que aumenta el riesgo de “errores catastróficos”.
El portavoz del Ministerio de Defensa, Jiang Bin, ha advertido recientemente que permitir que los algoritmos determinen “la vida o la muerte” erosiona las barreras morales de la guerra y podría desencadenar una “pérdida de control tecnológico” con consecuencias catastróficas.
A pesar de estas advertencias, el desarrollo de capacidades de IA militar continúa aceleradamente en todo el mundo, incluyendo en China misma, lo que pone de manifiesto la paradoja del actual panorama geopolítico: mientras se claman regulaciones internacionales férreas, la carrera por la supremacía tecnológica impulsa precisamente los sistemas que se dicen temer.
Expertos coinciden en que, sin un marco multilateral vinculante —similar al que rige las armas químicas o biológicas—, aumentará el riesgo de un error fatal o de una escalada involuntaria por decisiones autónomas.
El control responsable de la IA militar es urgente porque la velocidad de los algoritmos ya supera con creces la capacidad humana de reacción, recordándonos que el futuro de la guerra —y quizá de la humanidad— podría depender menos de la voluntad política que de una tecnología descontrolada que podría comportarse como asesina.
Francisco Rubiales