Dudas con las supermáquinas

Los expertos están divididos sobre la Inteligencia Artificial. Mientras unos ven la IA como un maravilla técnica para impulsar la Ciencia, otros piden una moratoria para estudiar los riesgos de crear una computadora que deje obsoleto al «homo sapiens» y escape a su control.

.

Redacción

La Inteligencia Artificial (IA) es uno de los cuatro pilares en los que se asienta la industria 4.0 junto a la impresión 3D, Internet de las cosas y la robotización. El problema es que la Inteligencia Artificial presenta riesgos desconocidos y genera un gran debate entre los expertos. Temen que una supercomputadora dotada de IA experimente una explosión exponencial de su inteligencia y logre ser un millón de veces superior a la mente del científico Einstein.

En 1999, el gurú de Silicon Valley Raymond Kurzweil auguró que, al ritmo actual, en el 2040 se construirá una máquina que alcanzaría la Singularidad y la autoconsciencia. «Antes de que acabe el próximo siglo, los seres humanos ya no serán los entes más inteligentes y más capaces del planeta, las máquinas superarán cualquier habilidad humana, podrán leer libros, entenderlos, crear conocimiento y ser conscientes», dice Kurzweil en La era de las máquinas espirituales.

Sin embargo, esta visión optimista que emana de Silicon Valley es machacada por Evgeny Morozov en su libro La locura del solucionismo tecnológico, del 2013. Este crítico ironiza con que la salvación de la humanidad que propone Silicon Valley consiste en usar dispositivos de alta tecnología y autovigilancia para vencer la obesidad, el insomnio y el calentamiento global y almacenar todo lo que hacemos. Ante esta actitud superficial, crear una máquina de capacidad sobrehumana podría acarrear una catástrofe.

Olle Häggström, en su reciente libro Aquí hay dragones ve como uno de los futuros riesgos desconocidos una máquina que iguale o supere a los seres humanos y prevé que podría llegar a ser una revolución informática «de una magnitud mucho mayor de lo que hemos visto hasta ahora». Es un superordenador que no solo gana a campeones de ajedrez, sino que deja obsoleto al homo sapiens, a su creador.

Por su parte, Nick Bostrom expone los riesgos de una explosión de inteligencia en su libro Superinteligencia, publicado en el 2014. Bostrom estudia las estrategias que emprendería una red autoconsciente para engañar a sus vigilantes, ante los que simularía ser sumisa, y propone frenar el desarrollo de la IA hasta comprender todos los riesgos. Hace poco Facebook apagó dos robots que negociaban entre sí en un lenguaje inventado por ellos. Bostrom teme que una computadora avanzada escape a todo control en apenas unas horas y agote los recursos del planeta para cumplir sus objetivos, como por ejemplo fabricar el máximo número de clips. Otro ejemplo sería Skynet, la red que lidera un ejército de robots en Terminator. Incluso si se programase una máquina ética que haga siempre lo mejor para la Humanidad, esta podría malinterpretar las órdenes. Y, al menos, las reglas que sigue son humanas. Peor sería toparse con una máquina de IA extraterrestre totalmente incomprensible.

«Esto no es Hall 9000»

Los ingenieros Juan González y Marcos Álvarez, de Gradiant, en Vigo, muestran una visión más realista. Diseñan una aplicación de IA para detectar la radicalización yihadista. Ellos desdramatizan: «La IA que usamos es muy buena pero solo en una sola cosa. No hablamos del ordenador asesino Hal 9000 de Odisea en el espacio 2001».

Votación
3 votos
Comentarios

Dudas con las supermáquinas