Los trabajos de John J. Hopfield y Geoffrey E. Hinton sobre redes neuronales son la base del aprendizaje automático y la inteligencia artificial
08 oct 2024 . Actualizado a las 13:30 h.El Premio Nobel de Física 2024 acaba de ser otorgado a John J. Hopfield y Geoffrey E. Hinton por sus «descubrimientos e inventos fundamentales que permiten el aprendizaje de máquinas y las redes neuronales artificiales», según ha informado este martes la Real Academia Sueca de Ciencias.
Los dos científicos utilizaron herramientas de la física para desarrollar métodos que son la base del potente aprendizaje automático actual Hopfield creó una estructura que puede almacenar y reconstruir información, mientras que Hinton, reconocido en España con el galardón Fronteras del Conocimiento del BBVA, inventó un método que puede descubrir de forma independiente propiedades en los datos y que se ha vuelto importante para las grandes redes neuronales que se utilizan actualmente. Sin su contribución muy probablemente aún no existirían hoy en día modelos de IA como ChatGPT.
Cuando hablamos de inteligencia artificial, a menudo nos referimos al aprendizaje automático mediante redes neuronales artificiales. Esta tecnología se inspiró originalmente en la estructura del cerebro. En una red neuronal artificial, las neuronas del cerebro están representadas por nodos que tienen diferentes valores. Estos nodos se influyen entre sí a través de conexiones que pueden compararse con sinapsis y que pueden fortalecerse o debilitarse. La red se entrena, por ejemplo, desarrollando conexiones más fuertes entre nodos con valores altos al mismo tiempo. Los galardonados de este año han realizado importantes trabajos con redes neuronales artificiales desde la década de 1980 en adelante.
John Hopfield inventó una red que utiliza un método para guardar y recrear patrones. Podemos imaginar los nodos como píxeles. La red de Hopfield utiliza la física que describe las características de un material debido a su espín atómico, una propiedad que convierte a cada átomo en un pequeño imán. La red en su conjunto se describe de una manera equivalente a la energía en el sistema de espín que se encuentra en la física, y se entrena encontrando valores para las conexiones entre los nodos de modo que las imágenes guardadas tengan baja energía. Cuando la red de Hopfield recibe una imagen distorsionada o incompleta, trabaja metódicamente a través de los nodos y actualiza sus valores para que la energía de la red disminuya. La red trabaja así paso a paso para encontrar la imagen guardada que se parezca más a la imperfecta con la que se la alimentó.
Geoffrey Hinton utilizó la red de Hopfield como base para una nueva red que utiliza un método diferente: la máquina de Boltzmann . Esta puede aprender a reconocer elementos característicos en un tipo determinado de datos. Hinton utilizó herramientas de la física estadística, la ciencia de los sistemas construidos a partir de muchos componentes similares. La máquina se entrena alimentándola con ejemplos que es muy probable que surjan cuando se la ejecuta. La máquina de Boltzmann se puede utilizar para clasificar imágenes o crear nuevos ejemplos del tipo de patrón en el que se la entrenó. Hinton se basó en este trabajo, lo que ayudó a iniciar el explosivo desarrollo actual del aprendizaje automático.
«El trabajo de los galardonados ya ha sido de gran utilidad. En física, utilizamos redes neuronales artificiales en una amplia gama de áreas, como por ejemplo en el desarrollo de nuevos materiales con propiedades específicas», afirma Ellen Moons, presidenta del Comité Nobel de Física.
Una red neuronal artificial procesa información utilizando toda la estructura de la red. La inspiración surgió inicialmente del deseo de comprender cómo funciona el cerebro. En la década de 1940, los investigadores habían comenzado a razonar sobre las matemáticas que subyacen a la red de neuronas y sinapsis del cerebro. Otra pieza del rompecabezas provino de la psicología, gracias a la hipótesis del neurocientífico Donald Hebb sobre cómo se produce el aprendizaje porque las conexiones entre neuronas se refuerzan cuando trabajan juntas.
Más tarde, a estas ideas les siguieron intentos de recrear el funcionamiento de la red cerebral mediante la construcción de redes neuronales artificiales como simulaciones por ordenador. En ellas, las neuronas del cerebro se imitan mediante nodos a los que se les asignan valores diferentes, y las sinapsis se representan mediante conexiones entre los nodos que pueden hacerse más fuertes o más débiles. La hipótesis de Donald Hebb todavía se utiliza como una de las reglas básicas para actualizar las redes artificiales mediante un proceso llamado entrenamiento .