“El auge de los LLMs con sus capacidades conversacionales y de estructurar la información han hecho que las empresas volteen a explorar diferentes formas de aprovecharlas y adaptarlas a sus necesidades.
Estrategias como Prompt Engineering o RAGs son las opciones más populares para aprovechar estas capacidades, por su aparente facilidad de implementación pero… es justo aquí donde empiezan las letras chiquitas:
¿Mi caso de uso es para un LLM simple o necesita trabajo de prompt engineering o un LLM + RAG o …la combinación de alguna de las anteriores? -Hay múltiples herramientas y estrategias, ¿Cómo sé cuál es la mejor se adapta a mis necesidades? ¿Qué LLM es mejor para mi aplicación? -¿Mi aplicación es agnóstica de los modelos? ¿Hay algún LLM que sea mejor para mi caso? ¿Basta con una arquitectura RAG “naive” o se requiere otras estructuras? -Siempre es mejor mantenerlo simple, ¿Pero es suficiente para mi caso? ¿Cómo estructurar mis datos? ¿Puedo usar un Knowledge Graph? -¿Necesito una RAG o un GraphRAG?
Acompáñanos a ver todas esas letras chiquitas y complicaciones que pueden surgir en los proyectos sobre GenAI, para que puedas aprovechar al máximo el poder conversacional de los LLMs y construir aplicaciones de calidad empresarial.”