Patrocinado por:

¿Hasta qué punto es peligrosa la inteligencia artificial?

La Voz REDACCIÓN

OCIO@

BENOIT TESSIER | REUTERS

Un equipo de científicos con el respaldo de Facebook ha desconectado dos robots después de que desarrollasen un lenguaje propio más lógico de lo esperado

02 ago 2017 . Actualizado a las 07:52 h.

Un proyecto financiado por Facebook que buscaba desarrollar máquinas capaces de aprender y desarrollar tácticas de negociación ha sido desconectado tras descubrir que los robots habían desarrollado un lenguaje propio con un nivel de perfección tan elevado que, incluso, fue complejo de descifrar para los investigadores.

En principio, se detectó carencia de sentido en él: la repetición continua de pronombres y determinantes llevó a pensar que existía un desorden de palabras. Posteriormente, se descubrió que donde aparentemente había errores, se estaba creando una estructura lógica coherente que permitía a los robots comunicarse con un menor riesgo de equivocación. «No programamos una recompensa para que la inteligencia artificial no se desviara de las reglas del lenguaje natural, y por tanto su red neural -el conjunto de rutinas que optimiza su funcionamiento- fue favoreciendo abreviaturas y nuevas expresiones que hacían mucho más rápida o sencilla su tarea», indicó uno de los responsables en la publicación FastCo.

Sin embargo, aunque en un caso como este los expertos aseguran que es lógico que las máquinas desarrollen formas de comunicación propias más eficientes y alejadas del lenguaje humano, se ha reabierto el debate: ¿La inteligencia artificial que excede la humana es peligrosa? Se trata de un tema del que, de hecho, han hablado esta misma semana Mark Zuckerberg -creador de Facebook- y Elon Musk -el inventor de Tesla y SpaceX-. Y no comparten la misma postura.

Así, para Elon Musk es fundamental contar con un marco regulatorio que siga de cerca los avances de la inteligencia artificial, puesto que su crecimiento sin control puede representar «una amenaza a la existencia de nuestra civilización». Esas fueron sus declaraciones hace pocos días, tal y como lo detalla Xataka, frente a diferentes gobernadores de Estados Unidos.

Sin embargo, Mark Zuckerberg aseguró que las declaraciones de Musk eran «irresponsables». Es más, añadió que «las personas con una visión tan negativa tratan siempre de exponer casos apocalípticos», haciendo referencia a los miedos del fundador de Tesla. Y, como se podía prever, apareció la contrarrespuesta de Muskafirmando que el conocimiento de Zuckerberg en lo que respecta a la inteligencia artificial es limitado.

Los pesados del sector tecnológico están apostando fuerte por la Inteligencia Artificial. Google, por ejemplo, adquirió el año pasado DeepMind, una empresa especializada en el desarrollo de redes naturales. El gigante de las búsquedas trabaja en un sistema informático capaz de distinguir en un vídeo una cara humana de la de un perro, gente patinando o durmiendo, entre otras cosas. Entonces, la pregunta no sería si las máquinas pueden pensar como las personas, que está claro que no, sino si puede ser peligroso el simple hecho de que piensen, a secas. Y es que solo ese motivo puede ser suficiente para despertar la preocupación de los expertos y, en definitiva, de la sociedad.

Entre las posturas que se toman con respecto al tema, están quienes piensan que puede llegar a ser muy perjudicial dejar a los robots que expresen su inteligencia. Mientras, en el otro lado, existe un sector de expertos que opina que una máquina no tiene la capacidad de hacer daño a los seres humanos, ya que en ellos no existe una mente humana capaz de pensar en lastimar, sino que únicamente son capaces de «perfeccionar y crear tareas» para las que han sido programados.