El LaMDA (Language Model for Dialogue Applications, modelo de lenguaje para aplicaciones de diálogo en español) fue diseñado por Google en 2017 y tiene como base un transformer, es decir, un entramado de redes neuronales artificiales profundas. "Esta red neuronal se entrena con grandes cantidades de texto. Pero el aprendizaje es por objetivo y se plantea como un juego. Tiene una frase completa, pero le quitas una palabra y el sistema tiene que adivinarla", explica Julio Gonzalo Arroyo, catedrático de la UNED (Universidad Nacional de Educación a Distancia) en España e investigador principal del Departamento de procesamiento del lenguaje natural y recuperación de la información.
Juega consigo mismo. El sistema pone palabras por ensayo y error y, cuando se equivoca, como si fuera un cuadernillo de actividades infantiles, mira en las últimas páginas, ve la respuesta correcta y así va corrigiendo los parámetros, afinando.
A la vez, "identifica el significado de cada palabra y pone atención a las palabras que la rodean", sostiene Gonzalo Arroyo.
Así se vuelve especialista en predecir patrones y palabras. Como ocurre con el texto predictivo en tu teléfono celular, solo que aquí ampliado a la enésima potencia, con una memoria mucho mayor.
Referencias
https://www.bbc.com/mundo/noticias-61803565
Comentarios