Robots asesinos

En 1973, cuando enfilaba el final de una larga y exitosa carrera cinematográfica, el actor norteamericano de origen ruso Yul Brynner volvió a enfundarse su traje negro del Oeste para encarnar a un pistolero sin nombre. Un pistolero implacable y sin emociones. La película, titulada Westworld –en España, Almas de metal –, era una distopía futurista desarrollada en un parque temático que ofrecía a sus visitantes la posibilidad de protagonizar aventuras ambientadas en la Roma imperial, la Edad Media y el Salvaje Oeste, donde afrontaban –sin riesgo aparente– toda clase de peligros.

Todos los figurantes del espectáculo eran robots programados para dar veracidad a la historia. Naturalmente, las cosas no salen como estaban previstas y un fallo inexplicable hace que los robots se descontrolen y empiecen a perseguir a muerte a todos los humanos. La película, cuyo éxito llevó a realizar una secuela tres años después, Futureworld, y dio lugar a la actual serie homónima de HBO, fue una de las primeras en plantear el riesgo de rebelión de las máquinas contra los hombres (que ya había desarrollado Stanley Kubrick en 1968 en 2001: una odisea en el espacio , donde el computador de la nave Discovery , Hal-9000, tomaba el mando y trataba de eliminar a sus astronautas) Luego han venido muchas más.

El temor de que los seres humanos puedan llegar algún día a ser tiranizados o aniquilados por las máquinas que ellos mismos han creado viene de lejos. El escritor y bioquímico Isaac Asimov, autor de novelas de ciencia-ficción y divulgador científico, ya abordó la cuestión en la colección de relatos que escribió entre 1940 y 1950 reunidos bajo el título Yo, robot . Asimov estableció allí lo que a su juicio deberían ser las tres leyes fundamentales de la robótica. La primera reza así: “Un robot no puede hacer daño a un ser humano o, por su inacción, permitir que un ser humano sufra daño”. Las otras dos remiten a la primera…image Hace tiempo que algunos de los países más avanzados tecnológicamente trabajan en el desarrollo de robots destinados a matar, máquinas-soldado que vulneran desde el primer momento de su concepción la primera ley de Asimov. Y hace el mismo tiempo que un grupo de países y organizaciones internacionales no gubernamentales luchan denodadamente –hasta ahora sin éxito– por prohibir, o en el menor de los casos encuadrar restrictivamente, estos artilugios, que se han bautizado oficialmente como Sistemas de armas autónomas letales (LAWS, en sus siglas en inglés). Esto es, robots asesinos.

Pero la realidad avanza muy rápido y la amenaza tanto tiempo temida ha dejado de ser virtual para convertirse en un hecho. No se trata de un riesgo futuro o de una fantasía. Los robots asesinos ya han empezado a matar. Y han empezado a hacerlo en la guerra civil de Libia. Un informe remitido el 8 de marzo pasado por el Grupo de Expertos de ONU sobre Libia al Consejo de Seguridad constató por primera vez que drones militares completamente autónomos habían atacado a humanos sin intervención directa de ninguna persona. Los drones, de fabricación turca, fueron utilizados en la ofensiva lanzada en marzo del 2020 –o sea, un año antes– por las fuerzas gubernamentales libias contra las milicias del mariscal Jalifa Haftar. El informe dedica sólo tres párrafos en sus 555 páginas a este asunto. Pero su lectura tiene un efecto desestabilizador. image Los convoyes logísticos y las fuerzas afiliadas a Haftar en retirada fueron posteriormente perseguidos y atacados a distancia por vehículos aéreos de combate no tripulados o sistemas de armas autónomas letales como el STM Kargu-2 y otras municiones de merodeo”, señala el informe, que precisa que “los sistemas de armas autónomas letales se programaron para atacar objetivos sin requerir la conectividad de datos entre el operador y la munición”. Es decir, de algún modo, a su libre albedrío. El Kargu-2 es un dron cuadricóptero de 7 kilos de peso desarrollado por la compañía turca STM, capaz una vez lanzado de buscar, seleccionar y atacar a sus objetivos de forma automática.

Turquía ha utilizado drones en sus últimas intervenciones militares en el exterior, como Siria o Nagorno-Karabaj, pero el caso de Libia es el primero que se documenta sobre el uso totalmente autónomo de este tipo de armas. Sin dirección humana. “Las unidades (de Haftar) no estaban ni entrenadas ni motivadas para defenderse del uso efectivo de esta nueva tecnología y normalmente se retiraban en desbandada. Una vez en retirada –prosigue el informe de Naciones Unidas– eran sometidos a un acoso continuo por parte de los vehículos aéreos de combate y los sistemas de armas autónomas letales”. No hay una evaluación sobre el número de víctimas que causaron. Pero puede intuirse el terror de las tropas perseguidas por un enjambre de drones atacando sin conciencia ni piedad. Todo el debate está ahí.

Hasta qué punto es moralmente aceptable permitir que una máquina inteligente pueda decidir de forma completamente autónoma, sin una decisión humana explícita, sobre la vida y la muerte de personas. Desde el año 2016 la ONU canaliza, a través de un Grupo de Expertos Gubernamentales, la discusión internacional de cara a acordar una legislación al respecto. Las cosas no han avanzado mucho, sobre todo a causa de los frenos que imponen los países más reticentes a la regulación: Estados Unidos y Rusia. Ambos países defienden la idea de que este nuevo tipo de armas pueden ser incluso beneficiosas por su fiabilidad, pues minimizarían los riesgos de un error humano. Los países contrarios y las oenegés más implicadas, como la Cruz Roja Internacional o Human Rights Watch –coordinadora de la campaña Stop Killer Robots –, consideran en cambio que son éticamente inaceptables y reclaman su prohibición. Pero mientras se discute, los robots han empezado ya a matar. A matarnos. Ayer en Libia. Mañana…

Fuente:  agujero.net

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *