Un informe de Microsoft afirma que GPT-4 tiene una inteligencia similar a la humana

miguel palacio NUEVA YORK / E. LA VOZ

SOCIEDAD

DADO RUVIC | REUTERS

Sostiene que esta herramienta es una versión temprana de un sistema mucho más avanzado

18 may 2023 . Actualizado a las 09:58 h.

Hal 9000, la inteligencia artificial de 2001: una odisea del espacio, podría estar mucho más cerca de lo que pensamos. O eso es lo que afirmaban varios ingenieros informáticos de Microsoft en el informe Sparks of Artificial General Intelligence (Destellos de Inteligencia Artificial General), en el que dicen haber detectado una suerte de «inteligencia artificial general» (IAG) en los razonamientos del modelo de inteligencia artificial GPT-4.

El paper, publicado en marzo, poco después del lanzamiento del modelo GPT-4 desarrollado por OpenAi —con la que Microsoft está inmersa en una colaboración de cerca de 13.000 millones de dólares y «a largo plazo»— afirmaba que «GPT-4 puede resolver tareas difíciles y novedosas que abarcan matemáticas, codificación, vista, medicina, derecho, psicología y mucho más». La inteligencia artificial sería capaz, además, de alcanzar un desempeño «asombrosamente cercano al nivel del desempeño humano».

Sin embargo, medir la inteligencia artificial presenta los mismos desafíos que evaluar la inteligencia humana. Aún no existe un consenso sobre qué medir de forma que se puedan establecer los límites que separan unas inteligencias de otras. El propio informe de Microsoft reconocía que las definiciones que aplican «no especifican cómo medir o comparar» los logros de las IA.

Y eso es precisamente lo que le critican al informe de Microsoft. Así, la profesora de psicología Alison Gopnik, que participa en las investigaciones sobre inteligencia artificial de la Universidad de Berkeley declaraba al New York Times que es imposible dilucidar si lo que genera GPT-4 es producto de un razonamiento similar al humano. Porque ahí estaría la clave. Si las inteligencias generativas que han asombrado al mundo en los últimos meses construyen a partir de la información que ya tienen, las IAG serían capaces (hipotéticamente) de desplegar unos niveles de razonamiento superiores y equiparables a los de un cerebro humano. O, en otras palabras, serían capaces de tener ideas. Chat GPT y las inteligencias generativas de imágenes como Stable Diffusion entrarían dentro del primer grupo: generan texto e imágenes basándose en referencias a las que tienen acceso.

Según el doctor Peter Lee, vicepresidente de investigación de Microsoft, GPT-4 sería «mucho mejor analizando, sintetizando, evaluando y juzgando texto de lo que es generándolo». Las conclusiones de Lee, como las del informe, se basan en el desempeño de GPT-4 en los test a los que fue sometida por Microsoft y que incluían la redacción de poemas, la generación de imágenes y de código informático y la resolución de acertijos.

Meses después de que Google despidiese a un ingeniero que afirmaba haber detectado sentimientos en una IA, los investigadores de Microsoft parecen querer matizar sus conclusiones en el propio informe. «Creemos que [GPT-4] podría ser visto como una versión temprana (y todavía incompleta) de un sistema de inteligencia artificial general» afirman en el informe.