Inteligencia artificial

Albino Prada
Albino Prada CELTAS CORTOS

OPINIÓN

29 may 2016 . Actualizado a las 05:00 h.

El director del Instituto sobre el Futuro de la Humanidad, Nick Bostrom, en un ensayo de reciente traducción y de gran impacto (no en vano en su portada lo recomiendan Bill Gates y el New York Times) sostiene que las investigaciones sobre inteligencia artificial se mueven en un terreno en el que los humanos parecemos niños pequeños jugando con una bomba. Sin embargo, en las casi trescientas páginas de Superinteligencia: caminos, peligros y estrategias nunca propone que -ante una tal incertidumbre- lo más sensato sea aplicar el principio de precaución: abstenerse de iniciar algo que no se esté seguro de luego poder apagar. Esa conclusión se esquiva aduciendo, en reiteradas ocasiones, que no puede evitarse que en estos asuntos alguna empresa o Estado vaya por libre; y así se avance en algo que por poderosas razones morales debiera paralizarse.

Alguien desarrollará la tecnología de todos modos, algún idiota pulsará el botón de encendido para ver qué pasa. Es este un supuesto ultra liberal. Que asume la imposibilidad de lo que Bostrom llama una estructura de Gobierno mundial para ejercer el control y precaución en situaciones de incertidumbre. Imposibilidad que deja en papel mojado una de sus vías (la mejora de las redes sociales humanas) para alcanzar la ansiada superinteligencia. Así es como nos quedamos desnudos ante una irrefrenable carrera para crear cíborgs, supercomputadores, emulaciones del cerebro humano o manipulaciones genéticas. Casi nada.

De esto último ya me ocupé en una columna anterior señalando la flema con que Bostrom asume alcanzar un Mundo feliz a lo A. Huxley. Sin embargo no deja de anotar las implicaciones hiper-orwellianas de unas tecnologías que podrían provocar el resultado de que la humanidad fuese rápidamente extinguida, la dominación y control completo del mundo por una IAS, el hacernos felices convirtiéndonos en idiotas o facilitar el totalitarismo. Ante tales horizontes Bostrom no retira a los niños la bomba con la que juegan, se limita a bosquejar métodos de control que «podrían hacer que sobreviviéramos a la revolución en inteligencia artificial? limitar el riesgo de hacer algo activamente perjudicial o moralmente incorrecto» (257). Porque: «Si la revolución en inteligencia artificial fuera bien, la superinteligencia resultante seguramente podría idear medios para prolongar indefinidamente la vida de los seres humanos entonces existentes, no solo manteniéndolos con vida, sino restaurándoles la salud y el vigor juvenil» (246). Si fuera bien? según el entrañable profesor Bostrom. Lo malo es que no se trata aquí de riesgos, al fin y al cabo cuantificables, sino de tremendas incertidumbres (continuará).