FUTURO

LA MALDITA MQUINA DE MATAR

Por Ayeln Oliva

La fantasía de un ejército de robots asesinos con autonomía para destruir blancos ya no resulta tan lejana y pone en alerta a la ONU.

 

No muy lejos del pueblo de Panmunjom, donde hace más de medio siglo se firmó el acuerdo de paz entre las dos Coreas, existe un robot con capacidad de matar que vigila la frontera. El SGR-A1, instalado en Corea del Sur para controlar la frontera norte, no se parece en nada a una figura humana. No simula tener piernas ni brazos, ni su superficie está cubierta por algún tipo de silicona parecida a nuestra piel. Aunque no hay dudas de que esta máquina se asemeja más a un generador eléctrico que a un hombre, muy lejos de la figura de un androide a la Terminator, sí está cada vez más cerca de dominar una habilidad típicamente humana. La de decidir con autonomía en qué momento disparar.

Si bien, hasta el momento, no se conocen robots con total independencia para matar, ya existen estos sistemas de defensa altamente automatizados que, según los especialistas, requieren sólo de algunas etapas de desarrollo para concretarlo. En 2014, el relator especial de las Naciones Unidas para ejecuciones extrajudiciales, Christof Heyns, definió ante al Consejo de Derechos Humanos que la robótica letal, que depende del avance de los procesadores y los algoritmos, cada vez necesita menos de la participación humana para actuar.

El avance de la robótica aplicada al desarrollo militar capaz de crear armas letales autónomas, también conocidas como robots asesinos, marca el inicio de la tercera revolución en técnicas de guerra, después de la composición de la pólvora y la creación de las armas nucleares. La cercanía de un futuro distópico donde los campos de batalla estén copados por máquinas con total autonomía para disparar asusta a cualquiera. Pero, ¿hasta dónde puede el desarrollo tecnológico practicarse sin restricciones? ¿Existen límites morales o políticos al avance de la inteligencia artificial aplicada al armamento militar?

Una vez más, el desarrollo tecnológico avanza y vuelve a chocar con la obstinada ambición humana, no muy amiga de los límites morales. La fantasía de una guerra librada por robots, futura pero cercana como cualquier escena de Black Mirror, parece estar cada vez más cerca de concretarse.

Sin acuerdo, por ahora

La guerra por control remoto ya existe. Dejó de ser una amenaza para convertirse en una realidad en estado puro con la incorporación de los drones y aviones no tripulados en el combate. Desde el desierto de Nevada, a unos 70 kilómetros de la ciudad de Las Vegas, el Ejército de los Estados Unidos puede terminar con más de un centenar de combatientes del grupo terrorista Al Shabab, filial de Al Qaeda en Somalia, sin salpicarse ni de una sola gota de sangre.

Cada uno de estos artefactos, que llega a valer unos tres millones y medio de dólares, refuerza la capacidad de matar del ejército más poderoso del planeta. Sin embargo, no están solos en esta carrera. La Oficina de Rendición de Cuentas del Gobierno de los Estados Unidos llegó a sostener que más de 70 países poseen algún tipo de avión no tripulado y que, al menos, 16 de ellos son dueños de drones armados.

Incluso en países como España, que no están a la vanguardia del desarrollo militar, desde su Ministerio de Defensa confirmaron que el presupuesto para el 2016 destinaba una partida de 25 millones de euros para la adquisición del sistema aéreo no tripulado RPAS. Según el plan presupuestario, ese programa implicaba unos 171 millones de euros hasta el 2020 solo en compra de drones.

Pero, de un modo u otro, los drones siguen dependiendo de un piloto a la distancia encargado de vigilar el terreno. Y esa es la diferencia central con estas nuevas armas letales completamente autónomas.

En julio de 2015, tres mil científicos e intelectuales firmaron una carta abierta, difundida por el Future of Life Institute, denunciando los peligros del desarrollo de la inteligencia artificial totalmente automatizada para su aplicación en guerras. Entre ellos estaba el físico Stephen Hawking, el lingista y filósofo estadounidense Noam Chomsky y el cofundador de Apple, Steve Wozniak. La solicitada marcaba una clara diferencia entre los misiles por control remoto y los robots asesinos. A estos últimos los definían como aquellos capaces de ir un paso más allá al eliminar personas según ciertos criterios predefinidos.

Dos años antes de esa carta pública, ya existía la organización Stop Killer Robots con una campaña internacional (todavía vigente) que exige la regulación de su desarrollo a nivel internacional. Según denuncia esta organización, la empresa de desarrollo aeroespacial estadounidense Northrop Grumman creó en 2011 el X-47B, un dron que ya funciona por medio de operación semiautónoma, capaz de despegar y aterrizar con independencia y de conectarse, sin necesidad de una orden desde ningún centro de operaciones militares, a otro avión de suministro de combustible.

Stop Killer Robots también alerta sobre la aparición del IAI Harop, un pequeño avión de combate no tripulado creado por Israel Aerospace Industries, principal empresa aeronáutica de ese país, que constituye en sí mismo la munición al transportar una carga explosiva de 23 kg destinada a detonarse en el momento de impacto. Este equipo también puede funcionar sin un operador en tierra y orientarse sólo usando ondas electromagnéticas que identifican aviones enemigos para así eliminarlos.

Además del robot surcoreano SGR-A1 creado por Samsung Techwin, capaz de identificar a un soldado en movimiento a más de 3 kilómetros de distancia por la noche, estos equipos se suman al grupo de sistemas que no necesitan de un operador en tierra que les dé las órdenes. Jody Williams, premio Nobel de la Paz de 1997 y una de las fundadoras de la campaña, sostuvo que si pueden ser construidos, también pueden ser hackeados. No hay manera de predecir cómo se comportarán los sistemas por sí mismos. Creo que es una locura y sería una revolución completa en guerras.

Pero no todos están en contra. Algunos gobiernos son cautos con la idea de oponerse al desarrollo de la robótica aplicada a guerras porque encuentran, entre los puntos a favor, la posibilidad de reducir el número de muertes militares causadas por el conflicto. Sin ir más lejos, según la red de Seguridad Humana en Latinoamérica y el Caribe (SEHLAC), el Departamento de Defensa de los Estados Unidos otorga en promedio 6 billones de dólares anuales para la investigación, desarrollo, adquisición y mantenimiento de armas letales autónomas. La intención es clara: de lo que se trata es de aumentar la independencia en la toma de decisiones de las armas ya existentes.

El poder de la ONU 

Así como en 1997 se firmó el llamado Tratado de Ottawa en contra de las minas explosivas anti-persona (¿qué son las minas si no armas que se activan con una independencia notable?), la ONU puede jugar un rol fundamental en este tema, ya que es el único organismo capaz de regular el desarrollo y prohibir la incorporación de estas máquinas a nivel global.

En diciembre pasado, en Ginebra, tuvo lugar la última Convención sobre Ciertas Armas Convencionales, un grupo de 121 países que debaten el tema de la restricción del uso de armas que puedan llegar a generar sufrimientos innecesarios o injustificables o que afectan a civiles de manera indiscriminada en guerras. Los Estados que la integran acordaron discutir la posibilidad de prohibir el desarrollo, producción y uso de armas totalmente autómatas. El compromiso fue continuar el debate antes de agosto de este año y tomar alguna determinación en el próximo encuentro de noviembre.

La voluntad de alcanzar un acuerdo consensuado entre tantos Estados parece, por el momento, más difícil de imaginar que la idea de ver un ejército de robots disparando contra los hombres y mujeres de este planeta. Tampoco debemos perdernos en la fantasía del tipo de rebelión que plantean las películas de ficción. En el terreno de lo real no son ya las máquinas contra la humanidad, sino que son los hombres y mujeres, mediante sus ejércitos, tratando de encontrar las formas menos costosas y traumáticas para aniquilar a otros hombres y mujeres de otros ejércitos.

Si el uso de drones en guerras logró mantenernos a salvo del contacto con la sangre del enemigo, el avance de la robótica autónoma busca liberarnos de la decisión de aniquilar al otro. Se trata ahora de custodiar una mente aséptica de culpas y responsabilidades, que no responde más que a la ambición de imponer nuestras creencias sobre los otros acerca de cómo deberían ser la cosas en el mundo, con la certeza de que algo (y no alguien) estará tomando las decisiones difíciles por nosotros.

El debate sobre el incorporación de los robots asesinos en guerras se encuentra en esa instancia previa, la del debate moral, la de la negociación entre el poder del desarrollo tecnológico y la inteligencia humana, con su ambición y su prudencia, para administrala. Todavía estamos a tiempo.