Los científicos advierten del peligro de aplicar la inteligencia artificial a las armas, algo que ya se está desarrollando y que tiene consecuencias físicas, bélicas y también legales
07 sep 2015 . Actualizado a las 05:00 h.Más de mil científicos y personas relacionadas con la tecnología firmaban recientemente una carta en la que pedían a los países de todo el mundo que no comiencen una carrera para desarrollar armas de inteligencia artificial, popularmente conocidas como robots asesinos. En su misiva, firmantes como el físico Stephen Hawking, el fundador de Apple Steve Wozniak o el intelectual estadounidense Noam Chomsky decían que este tipo de armas serán la tercera revolución en el armamento de guerra tras el invento de la pólvora y las armas nucleares. Ningún país ha respondido, al menos todavía.
Solo la fabricante de armas canadiense ClearPath Robotics se ha comprometido a no desarrollar estos equipos, aunque un buen número de expertos la acusaron de ingenuidad porque, según ellos, la carrera para desarrollar esas armas autónomas de inteligencia artificial comenzó hace tiempo. Todo parece de película de ciencia ficción, desde su nombre (Sistemas de Armas Autónomos Letales, LAWS, en sus siglas en inglés, que irónicamente significa leyes) hasta el secretismo en el que se gestionan, que suena a conspiración.
¿Qué son?
Los llamados popularmente robots asesinos son máquinas capaces de tomar decisiones y de matar. Lo que las distingue de las máquinas para matar que ya se utilizan ahora es que estas últimas requieren de la intervención humana para funcionar, en mayor o menor medida. Así son, por ejemplo, los drones. Se trata de aparatos que no necesitan tripulación, pero deben ser accionados por seres humanos aunque sea a distancia. También existen ya armas más avanzadas que tienen lo que se conoce como semiautonomía, es decir, serían un paso más delante de los drones. Ya hay herramientas que pueden encontrar por sí mismas fuentes de energía para alimentarse o elegir de forma autónoma los objetivos para matar. Por ejemplo, la frontera entre las Coreas es permanentemente recorrida por el Samsung SGR-1 surcoreano, que se mueve por su cuenta aunque el disparo requiere de la intervención de un técnico.
¿Existen ya estas armas automáticas?
No se sabe si existen ya o no. La mayoría de los expertos en inteligencia artificial están seguros de que se están desarrollando, pero nadie sabe en qué punto pueden estar. La carta de los científicos y expertos que pide que no se comience esa carrera decía también que «este tipo de sistemas podrá ponerse a punto en unos años, no estamos hablando de décadas». De hecho, en el departamento de Defensa de Estados Unidos está la Agencia de Proyectos de Investigación Avanzados (Darpa, en inglés).
¿Cuáles son sus riesgos?
Los riesgos son principalmente dos. El primero es que son máquinas, es decir no tendrán sentimientos: ni compasión, ni empatía, lo que las convertirá en despiadadas. Pero, además, no tienen capacidad de diferenciar a los amigos y a los enemigos ni tienen proporcionalidad, por lo que no serán capaces de dar una respuesta razonable en cada ocasión. También plantean otro grave problema: en el caso de mal funcionamiento, por ejemplo que una máquina de estas decidiera, por error, disparar en medio de un mercado lleno de civiles, ¿a quién se culparía? Es decir, podrían producirse crímenes de guerra y no podría juzgarse a nadie.
¿Cuáles son sus ventajas?
La gran ventaja de estas armas es que podrían ahorrar muchas vidas porque podrían sustituir a los soldados.
¿Qué países pueden estar desarrollándolas?
Ningún país ha reconocido públicamente que esté investigando en este terreno, pero si se está haciendo será en aquellos que económica y tecnológicamente pueden permitírselo. Estados Unidos y China están entre ellos, pero también Israel, Reino Unido, Corea del Sur, Rusia o Alemania. En el 2011 el Pentágono encargó un informe sobre los aspectos éticos de estas armas. Y en el 2012, Reino Unido se opuso a su prohibición.
¿Se puede hacer algo?
Se intenta. Además de la carta pública de los científicos que emitió el Comité Internacional para el Control de los Robots Armados (Icrac, en inglés) el pasado julio, hay una movilización popular en Gran Bretaña contra estas armas: Stop Killer Robots (Parar a los robots asesinos), impulsada por un profesor de Inteligencia Artificial de la Universidad de Sheffield. También han alzado su voz organizaciones como Human Rights Wacht y el Harvard Law School?s International Human Rights Clinic (el departamento de derechos humanos de la facultad de Derecho de Harvard). Además, la ONU ha movilizado a expertos en robótica e inteligencia artificial para que asesoren a la Convención sobre Armas Convencionales (CCW) para estudiar qué supone su existencia: ¿la lucha final de hombres y máquinas?