A medida que avanza la tecnología, no solo obtenemos mejores celulares o computadoras, sino que también los gobierno adquieren armas más sofisticadas.

Prueba de ello es que el Pentágono y la industria de la tecnología militar están avanzando con la iniciativa Replicator, la cual visualiza una futura fuerza en la que se despliegan sistemas totalmente autónomos en drones, aviones, embarcaciones y sistemas de defensa, conectados a través de una computadora central para sincronizar y comandar unidades.

En este sentido, a finales de agosto, la subsecretaria de Defensa, Kathleen Hicks anunció por primera vez Replicator, calificándola de iniciativa “revolucionaria” que contrarrestará las crecientes ambiciones y la mayor flota de recursos militares de China.

Hicks explicó que, si bien los sistemas autónomos se han utilizado durante décadas de alguna forma, como ametralladoras defensivas automáticas, Replicator está diseñado para producir enjambres de drones impulsados ​​por IA y naves voladoras o nadadoras para atacar objetivos.

Replicator utilizará los fondos y el personal existentes para desarrollar miles de sistemas autónomos en los próximos 18 a 24 meses.

Créditos: Jaap Arriens/NurPhoto

Sin embargo, los defensores del control de armas temen que las barreras de seguridad existentes no ofrezcan controles suficientes.

Por ejemplo, algunos críticos del proyecto llaman a las armas autónomas “robots asesinos” porque funcionan con inteligencia artificial y, técnicamente, pueden operar de forma independiente para eliminar objetivos sin ayuda humana.

Justamente, este tipo de sistemas rara vez se han visto en acción, y se desconoce en gran medida cómo afectarán el combate, a lo que se suma que no existen tratados internacionales que regulen su uso.

Entre los principales temores se destaca el de que este tipo de sistemas lleve a cabo misiones no deseadas, como atacar instalaciones nucleares.

Además, tomar la decisión de ir a la guerra será más fácil cuanto más dependa el mundo de las armas de IA. Aquí se argumenta que los algoritmos no deberían quitar vidas humanas porque no pueden comprender su valor y pueden estar sesgados, por ejemplo, apuntando a grupos basados ​​en la raza.

Para muchos expertos, el cronograma anunciado por Hicks era “muy, muy rápido” para una tecnología emergente que puede resultar abrumadora.

Tal vez te interese: El Reino Unido alerta por los peligros de la Inteligencia Artificial

Deja un comentario