En esta charla, compartirá su investigación y experiencia práctica explorando cómo los LLM y los procesos de generación aumentada por recuperación (RAG) pueden automatizar y acelerar los flujos de trabajo de análisis, al tiempo que reducen la intervención manual de DS+DE. Explorarán métodos para utilizar LLM para generar SQL, Python y análisis narrativos directamente sobre nuestros conjuntos de datos, probando todo, desde procesos de LangChain hasta asistentes de OpenAI, y evaluando finalmente si era mejor crear o comprar.
El camino no fue fácil: evitar que los LLM cometieran errores, controlar la calidad de los resultados y gestionar los costes son retos reales. Repasaremos las lecciones aprendidas, dónde destacan estos enfoques y por qué, en última instancia, adoptamos Magic AI de Hex como nuestra solución operativa, a pesar de las interesantes capacidades de los procesos LLM personalizados.