Los robots autónomos letales, una nueva amenaza para la seguridad
Los robots autónomos letales, también conocidos como armas autónomas letales (LAW), son sistemas de armas autónomas que pueden seleccionar y atacar objetivos sin un control humano significativo. Lo que implica que el sistema de armas puede usar la fuerza letal sin una instrucción directa de un operador humano. Esto podría aplicarse a varios sistemas de armas, por ejemplo, un tanque de batalla, un avión de combate o una nave de guerra.
Un malentendido común es que los robots autónomos letales son lo mismo que los drones armados. Sin embargo, con los actuales drones todavía hay un operador humano que selecciona y ataca objetivos a distancia. Otro malentendido es que los robots asesinos son lo mismo que el Terminator o el Robocop. Estos son conceptos de ciencia ficción que es poco probable que se hagan realidad en las próximas décadas, si es que llegan a hacerlo.

Los sistemas de armas que pueden seleccionar y atacar objetivos de forma autónoma plantean muchas preocupaciones legales, éticas y de seguridad.
Las ventajas de estos sistemas se resumirían, en primer lugar, en que pueden seleccionar y atacar objetivos sin la intervención humana, por lo que supondrían un ahorro en el coste de vidas en el campo de batalla. Otra ventaja es su autonomía, además de que son sistemas muy difíciles de piratear.
Aparte de su uso militar, estas máquinas automáticas podrían ayudar al control policial en las fronteras de nuestros países, e incluso a la hora de reprimir protestas o desestabilizar ciertos gobiernos. En definitiva, servirían para ahorrarnos efectivos en el campo de batalla, al igual que se podría hacer uso de ellos en otros aspectos cotidianos de nuestra vida.
Las desventajas se concretan, principalmente, en el perjuicio a los derechos humanos, en que un robot no se comporta como una persona, lo que provoca cierta inestabilidad en los aspectos legales, éticos, técnicos y de seguridad.

Otro problema que se plantea es su automaticidad. Por ejemplo, a la hora de estar en el campo de batalla, el robot puede actuar de forma poco humanitaria, donde la letalidad no sería el único problema, sino que también no necesitan ser letales para actuar en contra del conjunto de los seres humanos.
¿Existen los robots autónomos letales, es decir, debemos tenerles miedo?
Aunque la tecnología ya la tenemos, los robots autónomos letales aún no existen porque no les hemos dotado de plena autonomía. Países como China, Rusia, Israel, Estados Unidos y Reino Unido están involucrados en el desarrollo de sistemas de armas cada vez más autónomos.
La preocupación más importante es de carácter ético. Nunca se debe permitir que una máquina decida sobre la vida y la muerte. Esta decisión no puede reducirse a un algoritmo.
Luego están las preocupaciones legales. Es poco probable que las armas autónomas puedan cumplir con el Derecho Internacional Humanitario, ya que es complicado que sean capaces de distinguir adecuadamente entre civiles y combatientes, o de hacer una evaluación de proporcionalidad. Las armas autónomas también crean un vacío de responsabilidad. ¿Quién sería responsable de un acto ilícito: el robot, el desarrollador o el comandante militar?
Los robots autónomos letales en el sector privado
La decisión de usar un robot autónomo de combate contra los soldados siempre ha sido una decisión tomada por un ser humano. Eso puede cambiar pronto. Los avances modernos en inteligencia artificial, reconocimiento de imágenes y robótica han puesto a algunos de los mayores ejércitos del mundo al borde de un nuevo futuro en el que los sistemas de armas pueden encontrar y matar a personas en el campo de batalla sin intervención humana.

Rusia, China y los Estados Unidos están trabajando en plataformas autónomas que emparejan las armas con sensores y computadoras de puntería; Gran Bretaña e Israel ya están utilizando armas con características autónomas: misiles y aviones teledirigidos que pueden buscar y atacar el radar, el vehículo o la nave de un adversario sin que un comando humano tome la decisión inmediata de disparar.
Las delegaciones ante las Naciones Unidas han iniciado conversaciones para regular los sistemas de armas autónomas letales en el marco de una Convención sobre ciertas armas convencionales existentes. La tecnología se está desarrollando rápidamente y existe una necesidad urgente de diplomacia internacional para mantener el ritmo de producción e implementación.
¿Los robots deben tener la capacidad para matar?
La forma en que tendemos a justificar la guerra o a condenar ciertos actos «tiene que ver con el hecho de que los seres humanos están tomando decisiones que son morales o inmorales», dice Pauline Shanks Kaurin, profesora especializada en ética militar en la Escuela de Guerra Naval de los Estados Unidos. «Si los humanos no están tomando esas decisiones, si son literalmente máquinas contra máquinas, entonces parece que es otra cosa, ¿verdad?»
Es la forma en que el poder de fuego robótico puede ser aprovechado por los seres humanos, lo que han señalado como peligroso algunos de los críticos más agudos del armamento autónomo. En 2015 Steve Wozniak, Elon Musk y Stephen Hawking, junto a más de 1.000 investigadores de robótica e inteligencia artificial, firmaron una carta abierta advirtiendo que «las armas autónomas se convertirán en los Kalashnikovs» del futuro, «ideales para tareas como asesinatos, desestabilizar naciones, someter poblaciones y matar selectivamente a un grupo étnico en particular».

Las leyes de la guerra internacionales
Los robots autónomos letales (si proliferan, que por el momento es seguro) socavarán el último paliativo de la humanidad contra los crímenes de guerra y las atrocidades: las leyes de guerra internacionales. Estas leyes, codificadas en tratados que parten de la primera Convención de Ginebra, son la delgada línea que separa la guerra de algo aún peor apenas imaginable. Las leyes de la guerra son fundamentales, porque también imponen responsabilidad a quienes están librando una.
¿Y ahora quién será el culpable cuando un robot autónomo letal cometa crímenes de guerra? ¿El arma? ¿El soldado? ¿Los comandantes del soldado? ¿La empresa que fabricó el arma? Las ONG y los expertos en derecho internacional temen que las armas autónomas conduzcan a una brecha de responsabilidad.
Se debe demostrar que un soldado ha cometido un delito utilizando un arma autónoma. Para ello será necesario acreditar que el soldado cometió un acto culpable y además tenía la intención específica de hacerlo. Una dinámica bastante complicada en un mundo de robots autónomos.
En definitiva, sería un mundo sin reglas, un mundo en el que se cometerán crímenes de guerra sin que los culpables tengan que rendir cuentas. La estructura de las leyes de la guerra, junto con su valor disuasorio, se debilitarán considerablemente.

Los DDHH que se vulneran
Si ponemos en marcha el uso de armas totalmente automáticas se crearía una guerra constante, ya que una vez desplegadas son capaces de ser letales por sí solas.
Los DDHH deben seguir ocupando el puesto que les corresponde a nivel mundial en cuanto al derecho internacional por lo que, si queremos poner en marcha los robots, deberíamos proteger asimismo los derechos humanitarios. De esta forma se podrá acordar los motivos éticos y morales que se plantean delegar en robots autónomos letales a la hora de tomar decisiones como la vida o la muerte.
¿La responsabilidad de quién es?
Los responsables de querer que estos robots entren en acción son aquellos que directamente ya vulneran los DDHH, es decir, si su uso debe de ser para una guerra, el hecho de estar involucrado en una una ya te hace cómplice de vulnerar los DDHH, por lo que todos aquellos países que están en guerra o tienen algún interés en provocar una guerra son los culpables. Nada tienen que ver países que defienden el más estricto respecto de los DDHH, como es el caso, en mi opinión, de España.
Las alternativas que existen para admitir estos “robots” es hacer uso de ellos solo en caso extremo, tras una aprobación en la ONU a nivel mundial que impida la vulneración de derechos.
Tras ello sería conveniente invertir dinero y tiempo en estos robots, prepáralos realmente por si se produce algún conflicto militar, es decir, que no puedan ser controlados por terroristas, hackers o alguna otra persona que quiera utilizarlos para un mal mayor.
En definitiva, el uso de robots automáticos se podría limitar a situaciones extremas y muy específicas, en las que se debería cumplir con el derecho humanitario internacional, el cual es el único aspecto relevante por el que se tendrían que evaluar las armas automáticas, ya que serían instrumentos para un conflicto armado.

Hace unos días ' Bulletin of the Atomic Sciencist ' se hacía eco sobre el descubrimiento por parte de analistas de un tipo de dron autónomo de fabricación rusa conocido como ZALA Aero KUB-BLA en las proximidades de Kiev.
Las imágenes del dispositivo, tomadas aparentemente a las afueras de la capital ucraniana, fueron compartidas a través de Telegram a mediados del mes de marzo. El KUB-BLA está fabricado por la empresa rusa Kalashnikov, conocida por su popular fusil de asalto AK-47. Según el portal de información militar ' 1945 ', el dispositivo tiene una envergadura de 1,2 metros, puede alcanzar los 130 kilómetros por hora y mantenerse en el aire durante 30 minutos antes de atacar al objetivo lanzando explosivos.
Por el momento, se desconoce si el dron estaba funcionando de forma plenamente autónoma, sin contar con el control de ningún ser humano. De lo que no cabe ninguna duda es que Rusia es uno de los países que más fuerte está apostando por el desarrollo de tecnología con capacidad de acabar con vidas humanas sin necesidad de que ninguna persona controle su actuación.
Algunos análisis sugieren que los restos de un dron encontrado en Siria en 2019 eran, precisamente, de un KUB-BLA, e incluso se está hablando de que los investigadores de la ONU señalaron que en Libia fuerzas con respaldo del gobierno habían usado un “sistema de armas autónomas letales” contra los milicianos.
Según el informe se trataría de un dron llamado Kargu-2, fabricado por un contratista de defensa turco, que rastreó y atacó a los combatientes mientras huían de un ataque con misiles. No queda claro si el dron había estado bajo el control de algún ser humano.
También se cree que, en 2020, en la guerra del Alto Karabaj, Azerbaiyán combatió contra Armenia con drones de ataque y misiles que merodeaban en el aire hasta que detectaban la señal de un blanco asignado.
En conclusión, debemos evitar que la carrera por los robos autónomos letales se convierta en la nueva, y más catastrófica, carrera armamentística. Porque no hay límite para el horror que puede surgir.