Las Word embeddings son técnicas utilizadas en el procesamiento de lenguaje natural donde las palabras o frases son mapeadas a vectores de números reales, de tal manera que los vectores generados pueden ser explotados por algoritmos de machine learning.
En esta charla mostraremos:
- Una breve historia y panorama de las principales herramientas y modelos de word embeddings: word2vec, GloVe, fastText, StarSpace.
- Cómo construir y evaluar modelos de clasificación de texto con fastText y StarSpace.
- Técnicas utilizadas en fastText para mejorar el desempeño.
- Un caso de uso en BBVA donde usamos fastText para realizar clasificación de textos financieros.