Superinteligencia e incertidumbre: ¿control o precaución?

Albino Prada
Albino Prada CELTAS CORTOS

OPINIÓN

05 ago 2016 . Actualizado a las 05:00 h.

Después de revisar en columnas precedentes las alegrías respecto a la selección genética en humanos, por un lado, y el optimismo respecto a evitar una distopía hiperorwelliana causada por investigaciones en inteligencia artificial, creo conveniente concluir mis reflexiones sobre el libro Superinteligencia (Todo está en los libros, 2016) con algunas consideraciones sobre algo que en sus trescientas páginas ni se nombra: el principio de precaución.

El principio es claro: no enciendas algo que no estés completamente seguro de poder apagar. Un criterio de acción basado en nuestra confesión de ignorancia: elegir entre prudencia o temeridad.

Se concretó en la Cumbre de Río de Janeiro de 1992 al reconocerse la inexistencia de certeza científica absoluta en múltiples áreas del saber. Ya fuese por la incertidumbre relativa a si en ciertos casos la ciencia puede identificar de manera clara efectos y causas, o bien cuando las causas nos sean científicamente desconocidas. Pues aunque ciencia y técnica son artífices de conquistas impresionantes, en muchos ámbitos de conocimiento subsiste un amplio margen para lo desconocido.

Es el caso de la IAS (inteligencia artificial sobrehumana). Nick Bostrom en el libro citado enumera sobradas razones para concluir que no estamos en situaciones de riesgos manejables, sino -como admite en sus conclusiones- de no pequeñas incertidumbres.

Porque cuando el autor se pregunta qué podemos hacer para dirigir una explosión de inteligencia que aumente las posibilidades de alcanzar un resultado beneficioso, es obvio que no está en condiciones de asegurar, ni siquiera de estimar, que no resulte una catástrofe. Titula el capítulo octavo: ¿Es el apocalipsis el resultado inevitable? Llega con que exista alguna posibilidad de que nos veamos en ese lío.

No basta con buscar algo más de control o de seguridad (capitulo 9), no basta con devanarse los sesos para ver cómo dominamos o mantenemos a raya la IAS (capitulo 12). Porque ese control y ese dominio no pueden asegurarse. Él mismo reconoce que muchas de las técnicas que puede imaginar parecen callejones sin salida y que otros han de ser mucho más explorados. Y porque la explosión de IAS es muy probable que se produzca a una velocidad tal que el tiempo disponible para prepararse y avanzar en el problema de su control lo hiciese imposible.

No basta en este asunto con «reducir o limitar el riesgo de dinámicas distópicas» (páginas 253 y 257), porque si lo que está en juego es la eventual extinción de la especie humana -como Bostrom acepta- solo es aceptable el riesgo cero. Y eso es imposible.

Como bien señala al final de su libro, en este asunto la euforia iluminada está fuera de lugar. Pero yo creo que también lo está el posibilismo de todos aquellos que, como Bostrom, confían en (reducir, mitigar) manejar el asunto. Convendría no olvidar las propuestas de actuación realizadas por L. Winner (sobre sonambulismo tecnológico) o L. Mumford (sobre el poder de la megamáquina).