Expositor: Dr. Franco M. Luque (FAMAF)
Date: Viernes 11 de octubre de 2019, 11 hs, Auditorio IATE.
Abstract: Los word embeddings representan las palabras del lenguaje natural como vectores en R^n. Estas representaciones se aprenden de manera no supervisada a partir de grandes cantidades de texto. Los vectores codifican propiedades distribucionales de las palabras: palabras con usos parecidos tendrán vectores parecidos. Las propiedades codificadas van más allá aún: los espacios de embeddings capturan también relaciones sintácticas y semánticas entre conceptos, que pueden ser calculadas usando operaciones usuales de vectores como sumas o restas. Los embeddings significaron un importante progreso en el campo del Procesamiento de Lenguaje Natural, permitiendo mejorar el estado del arte en muchas tareas, y abriendo la puerta al uso generalizado de redes neuronales. En esta charla voy a introducir algunos modelos de embeddings, sus propiedades, su utilidad y sus limitaciones.
Sobre el expositor: