La inteligencia artificial aprende sobre lenguaje a través de los ojos y oídos de un niño
SOCIEDAD
Un equipo de la Universidad de Nueva York decidió desarrollar un nuevo modelo de aprendizaje automático tomando como ejemplo la experienca de un niño
05 feb 2024 . Actualizado a las 08:55 h.Entre los seis y los nueve meses de edad, los niños aprenden sus primeras palabras y empiezan a relacionarlas con objetos y conceptos del mundo real. Cuando tienen entre 1,5 y dos años, la mayoría puede comprender una media de 300 palabras. Pero no se sabe bien cómo las adquieren y las relacionan con sus equivalentes visuales. Comprender mejor este proceso podría servir de base a los sistemas de inteligencia artificial de nueva generación que desarrollan vínculos entre las palabras y las representaciones visuales.
Los actuales sistemas de IA, como Chat GPT-4, ya pueden aprender y utilizar el lenguaje humano, pero lo hacen a partir de cantidades astronómicas de datos lingüísticos. Los mejores sistemas se entrenan con textos que contienen billones de palabras, mientras que los niños solo reciben millones al año.
Debido a esta enorme laguna de datos, los investigadores se han mostrado escépticos ante la posibilidad de que los recientes avances de la IA puedan decirnos mucho sobre el aprendizaje y el desarrollo del lenguaje humano.
Para avanzar en este ámbito, un equipo de la Universidad de Nueva York decidió desarrollar un nuevo modelo de aprendizaje automático, no a partir de datos masivos, sino tomando como ejemplo la experiencia de cómo aprende a hablar un único niño, al que llamaron bebé S. Los resultados del estudio se publican en Science.
Los autores diseñaron un experimento que consistió en entrenar un sistema de IA multimodal a través de los ojos y los oídos de bebé S. Para ello utilizaron grabaciones de vídeo de una cámara frontal que recogieron desde que tenía seis meses hasta su segundo cumpleaños. Y examinaron si el modelo podía aprender palabras y conceptos presentes en la experiencia cotidiana de un niño.