Martes 5 de noviembre

9:00
Bienvenida
9:40
10:10
10:50
Break
11:20
12:00
12:40
13:20
Comida
14:20
15:00
15:40
16:20
17:00
Break
17:20
09:10 - 09:40.
Por Adolfo De Unanue
Track: Data strategy
Room: Sala 1
11/05/2024 9:10 AM 11/05/2024 9:40 AM America/Monterrey DDMty: Una Discusión sobre Diseño de Aplicaciones con LLMs y Agentes: estabilidad, adaptabilidad y complejidad

En un mundo donde los Grandes Modelos de Lenguaje (LLMs) y agentes autónomos están transformando múltiples industrias, es esencial desarrollar aplicaciones basadas en principios que aseguren su estabilidad, adaptabilidad y capacidad de gestionar la complejidad inherente. Esta ponencia explora cómo los conceptos de estabilidad dinámica mediante funciones de Lyapunov, la adaptabilidad a través de las estructuras disipativas de Prigogine, y la cibernética organizacional de Stafford Beer deberían guiar el diseño de estas aplicaciones.

A medida que los LLMs se integran en sistemas interactivos y autónomos, es vital garantizar que su comportamiento sea predecible y ajustable en tiempo real. Utilizar principios de estabilidad asegura que las aplicaciones mantengan coherencia y seguridad, incluso en escenarios complejos. Al mismo tiempo, la adaptabilidad se convierte en un pilar fundamental, permitiendo que los LLMs y agentes respondan a entornos dinámicos de manera eficiente y resiliente. Finalmente, la gestión de la complejidad mediante retroalimentación y optimización de subsistemas tanto técnicos como humanos mejora la robustez de estos sistemas.

Este análisis busca mostrar cómo estas ideas, tomadas de campos que tradicionalmente no se asocian con el diseño de IA, pueden proporcionar un marco sólido para crear aplicaciones más seguras, eficaces y alineadas con los valores éticos y los objetivos organizacionales.

Sala 1
En un mundo donde los Grandes Modelos de Lenguaje (LLMs) y agentes autónomos están transformando múltiples industrias, es esencial desarrollar aplicaciones basadas en principios que aseguren su estabilidad, adaptabilidad y capacidad de gestionar la complejidad inherente. Esta ponencia explora cómo los conceptos de estabilidad dinámica mediante funciones de Lyapunov, la adaptabilidad a través de las estructuras disipativas de Prigogine, y la cibernética organizacional de Stafford Beer deberían guiar el diseño de estas aplicaciones.
09:40 - 10:10.
Track: Data strategy
Room: Sala 1
11/05/2024 9:40 AM 11/05/2024 10:10 AM America/Monterrey DDMty: Sesión presentada por Softtek Sala 1
10:10 - 10:50.
Room: Sala 1
11/05/2024 10:10 AM 11/05/2024 10:50 AM America/Monterrey DDMty: Lightning talks

Serie de charlas relámpago presentadas por distintos conferencistas.

Sala 1
Serie de charlas relámpago presentadas por distintos conferencistas.
11:20 - 12:00.
Por Hector Cuesta
Track: Data engineering
Room: Sala 4
11/05/2024 11:20 AM 11/05/2024 12:00 PM America/Monterrey DDMty: Asegurando la Calidad de Datos en Data Stacks

Asegurar la calidad de los datos se ha convertido en un desafío crítico para las organizaciones que buscan precisión, consistencia y confiabilidad en sus procesos de toma de decisiones. Esta charla abordará las estrategias multifacéticas y las herramientas esenciales para mantener una alta calidad de datos como Great Expectations o Apache Griffin.

Exploraremos prácticas clave como el perfilado, limpieza y validación de datos, junto con Frameworks robustos de gobernanza y gestión de metadatos. Además, destacaremos el papel de la monitorización de datos, la integración y el uso de la automatización impulsada por IA para mejorar la calidad de los datos.

Los asistentes obtendrán conocimientos prácticos y técnicas accionables para implementar en sus entornos de datos, asegurando que los datos sigan siendo un activo confiable.

Sala 4
Asegurar la calidad de los datos se ha convertido en un desafío crítico para las organizaciones que buscan precisión, consistencia y confiabilidad en sus procesos de toma de decisiones. Esta charla abordará las estrategias multifacéticas y las herramientas esenciales para mantener una alta calidad de datos como Great Expectations o Apache Griffin. Exploraremos prácticas clave como el perfilado, limpieza y validación de datos, junto con Frameworks robustos de gobernanza y gestión de metadatos.
11:20 - 12:00.
Por Luis Almazan & Daniel Teran
Track: Data strategy
Room: Sala 1
11/05/2024 11:20 AM 11/05/2024 12:00 PM America/Monterrey DDMty: De LLMs, RAGs y sus letras chiquitas, ¿qué es lo que no te dicen de la construcción de una aplicación Gen AI corporativa?

“El auge de los LLMs con sus capacidades conversacionales y de estructurar la información han hecho que las empresas volteen a explorar diferentes formas de aprovecharlas y adaptarlas a sus necesidades.

Estrategias como Prompt Engineering o RAGs son las opciones más populares para aprovechar estas capacidades, por su aparente facilidad de implementación pero… es justo aquí donde empiezan las letras chiquitas:

¿Mi caso de uso es para un LLM simple o necesita trabajo de prompt engineering o un LLM + RAG o …la combinación de alguna de las anteriores? -Hay múltiples herramientas y estrategias, ¿Cómo sé cuál es la mejor se adapta a mis necesidades? ¿Qué LLM es mejor para mi aplicación? -¿Mi aplicación es agnóstica de los modelos? ¿Hay algún LLM que sea mejor para mi caso? ¿Basta con una arquitectura RAG “naive” o se requiere otras estructuras? -Siempre es mejor mantenerlo simple, ¿Pero es suficiente para mi caso? ¿Cómo estructurar mis datos? ¿Puedo usar un Knowledge Graph? -¿Necesito una RAG o un GraphRAG?

Acompáñanos a ver todas esas letras chiquitas y complicaciones que pueden surgir en los proyectos sobre GenAI, para que puedas aprovechar al máximo el poder conversacional de los LLMs y construir aplicaciones de calidad empresarial.”

Sala 1
“El auge de los LLMs con sus capacidades conversacionales y de estructurar la información han hecho que las empresas volteen a explorar diferentes formas de aprovecharlas y adaptarlas a sus necesidades. Estrategias como Prompt Engineering o RAGs son las opciones más populares para aprovechar estas capacidades, por su aparente facilidad de implementación pero… es justo aquí donde empiezan las letras chiquitas: ¿Mi caso de uso es para un LLM simple o necesita trabajo de prompt engineering o un LLM + RAG o …la combinación de alguna de las anteriores?
11:20 - 12:00.
Por Alina Sotolongo Aguiar & Adjani Gama Dessavre
Track: Public policy
Room: Sala 3
11/05/2024 11:20 AM 11/05/2024 12:00 PM America/Monterrey DDMty: Diseño de CRM y de base de datos central para AbogadasMX

En esta charla se presentará un proyecto colaborativo entre AbogadasMX y Data-Pop Alliance. Este se basa en recopilar y visualizar datos sobre varios aspectos laborales enfocados en la equidad de género entre los despachos de abogados en el país. Para este objetivo se realizó el diseño e implementación de un CRM (software de customer relationship management) y una base de datos central para AbogadasMX, así como el cuestionario mediante el cual se podrán obtener los datos de los diferentes despachos. Este trabajo permitirá a la organización desarrollar un base sólida para la generación de información y un producto que responda a sus necesidades y procesos de trabajo. En la charla veremos cómo se realizó este diseño e implementación, las herramientas usadas y sus principales ventajas y desventajas, así como algunos detalles de la implementación, enfocandonos en los desafíos que surgen naturalmente en este tipo de proyectos.

Sala 3
En esta charla se presentará un proyecto colaborativo entre AbogadasMX y Data-Pop Alliance. Este se basa en recopilar y visualizar datos sobre varios aspectos laborales enfocados en la equidad de género entre los despachos de abogados en el país. Para este objetivo se realizó el diseño e implementación de un CRM (software de customer relationship management) y una base de datos central para AbogadasMX, así como el cuestionario mediante el cual se podrán obtener los datos de los diferentes despachos.
12:00 - 12:40.
Por Antonio Arias Mejia
Track: Data engineering
Room: Sala 4
11/05/2024 12:00 PM 11/05/2024 12:40 PM America/Monterrey DDMty: Empoderamiento en la Toma de Decisiones a Traves de una Arquitectura de Datos

En esta conferencia caminaremos en uno de los retos que afrontó una organización en transicion a la digitalización para fortalecer a sus analistas de reclamos de garantías.

Para ello, exploramos los distintos componentes que de su arquitectura y cómo estos permitieron su integración con un modelo de Machine Learning que empodera a los agentes proveyendo de mayor información histórica y un acercamiento predictivo para que puedan tomar la mejor decisión.

Los componentes de dicha arquitectura y en los que profundizaremos en esta conferencia son:

  • Apache Beam: Un modelo de programación unificado que permite diseñar y ejecutar flujos de datos.
  • DataFlow: Un servicio de GCP que nos permite poder ejecutar pipelines desarrollados usando Apache Beam.
  • CloudRun: Una plataforma de cómputo en la nube que permite la ejecución de contenedores instanciados a través de solicitudes o eventos.
  • Terraform: Una herramienta de infraestructura como código que permite la creación de todos los recursos necesarios para la ejecución tanto del modelo de ML como de DataFlow para la transformación de los datos que lo nutren.
  • GitHub actions: Implementado para la automatización del ciclo de vida de desarrollo. GitHub Actions facilita la integración continua y el despliegue continuo (CI/CD) de los modelos de ML y de DataFlow, permitiendo pruebas automatizadas y despliegues consistentes

La integración de DataFlow, GitHub Actions, Terraform y CloudRun proporciona una solución robusta y eficiente para el desarrollo y operación de modelos de Machine Learning en la nube. Esta arquitectura no solo mejora la eficiencia y escalabilidad del flujo de trabajo de datos, sino que también garantiza un entorno de despliegue automatizado y altamente disponible, permitiendo a los equipos centrarse en la innovación y el desarrollo de modelos avanzados para proveer de información importante a los tomadores de decisiones dentro de la organización.

Sala 4
En esta conferencia caminaremos en uno de los retos que afrontó una organización en transicion a la digitalización para fortalecer a sus analistas de reclamos de garantías. Para ello, exploramos los distintos componentes que de su arquitectura y cómo estos permitieron su integración con un modelo de Machine Learning que empodera a los agentes proveyendo de mayor información histórica y un acercamiento predictivo para que puedan tomar la mejor decisión.
12:00 - 12:40.
Por Leandro Srur
Track: Data strategy
Room: Sala 1
11/05/2024 12:00 PM 11/05/2024 12:40 PM America/Monterrey DDMty: Promoviendo el self service con Gen AI

Se mostrarán a partir de casos prácticos como la IA Generativa ayuda a las áreas de Datos y Analítica a la provisión de herramientas para facilitar la autogestión (self services) de las áreas usuarias de negocio. Se mostrarán caos de asistentes de catálogo de datos, recomendaciones basadas en uso y sugerencias de insights.

Sala 1
Se mostrarán a partir de casos prácticos como la IA Generativa ayuda a las áreas de Datos y Analítica a la provisión de herramientas para facilitar la autogestión (self services) de las áreas usuarias de negocio. Se mostrarán caos de asistentes de catálogo de datos, recomendaciones basadas en uso y sugerencias de insights.
12:00 - 12:40.
Por Gonzalo Peraza
Track: Public policy
Room: Sala 3
11/05/2024 12:00 PM 11/05/2024 12:40 PM America/Monterrey DDMty: Sistema de Información Urbano Metropolitano: La expansión urbana de Monterrey en datos, hacía una discusión informada

En las últimas tres décadas, la Zona Metropolitana de Monterrey se ha expandido a un ritmo insostenible. Sin embargo, hasta hace poco, no era posible tener una visión completa de este fenómeno, haciendo difícil mantener una discusión informada sobre el problema. En esta plática, seguiremos una narrativa basada en datos (utilizando la nueva plataforma ciudadfinita.mx) a través de las diferentes facetas de la expansión urbana en la Zona Metropolitana de Monterrey y los problemas que ocasiona. Finalizaremos con una discusión de como este tipo de herramientas pueden ayudarnos a impulsar una visión colectiva de la ciudad.

Sala 3
En las últimas tres décadas, la Zona Metropolitana de Monterrey se ha expandido a un ritmo insostenible. Sin embargo, hasta hace poco, no era posible tener una visión completa de este fenómeno, haciendo difícil mantener una discusión informada sobre el problema. En esta plática, seguiremos una narrativa basada en datos (utilizando la nueva plataforma ciudadfinita.mx) a través de las diferentes facetas de la expansión urbana en la Zona Metropolitana de Monterrey y los problemas que ocasiona.
12:00 - 13:20.
Por Alfonso Ruiz Guido
Track: Data science
Room: Sala 2
11/05/2024 12:00 PM 11/05/2024 1:20 PM America/Monterrey DDMty: Taller: Función de error vs métrica de evaluación

En este taller se hablará sobre el enorme reto tanto para los matemáticos como para los científicos de datos y estrategas de negocios, que representa definir correctamente la métrica de evaluación de un modelo matemático para producir resultados tangibles dentro de un negocio.

El caso extremo de este problema es el famoso Test de Turing en el que evaluar cuándo un modelo matemático ha logrado la Inteligencia Artificial se ha demostrado ambiguo y no es completamente claro si ChatGPT lo ha pasado o no. Increíblemente, las métricas con las que se entrenan este tipo de modelos son muy lejanas a lo que representa una métrica sensible al problema de la generación del lenguaje. Este tipo de dificultades también aparecen en problemas más sencillos como la evaluación de un modelo de traducción, para los que las métricas como Rouge utilizadas en la evaluación distan mucho de la función de pérdida con la que se optimiza una red neuronal. Un problema similar aparece para casi todos los problemas de NLP o en Procesamiento de Imágenes.

En el otro extremo están los modelos simples de clasificación en los que los errores del segundo tipo se pueden estudiar cuantitativamente con métricas provenientes de la matriz de confusión, en el mejor de los casos sí es posible hacer diferenciables estas métricas y el entrenamiento de los modelos es más eficaz. Entre el primer extremo y este existen muchos matices que se tratarán durante el taller con ejemplos concretos y algunos avances recientes.

Sensibilizar sobre estas métricas a los actores en el desarrollo de un modelo de IA aplicado en la industria, independientemente de su background, es indispensable para el desarrollo de mejores prácticas en la evaluación de un modelo basado en datos.

Explicar la gigantesca diferencia que existe entre la función objetivo durante el entrenamiento de un modelo matemático utilizando una base de datos, y el objetivo que podría tener un negocio al implementar y escalar este modelo.

Sala 2
En este taller se hablará sobre el enorme reto tanto para los matemáticos como para los científicos de datos y estrategas de negocios, que representa definir correctamente la métrica de evaluación de un modelo matemático para producir resultados tangibles dentro de un negocio. El caso extremo de este problema es el famoso Test de Turing en el que evaluar cuándo un modelo matemático ha logrado la Inteligencia Artificial se ha demostrado ambiguo y no es completamente claro si ChatGPT lo ha pasado o no.
12:40 - 13:20.
Por Ricardo Daniel Alanis Tamez
Track: Data strategy
Room: Sala 1
11/05/2024 12:40 PM 11/05/2024 1:20 PM America/Monterrey DDMty: AI para todos: Preparando a los datos y las organizaciones para esta revolución industrial

En Nowports, una startup de logística, experimentamos un gran crecimiento que nos llevó a alcanzar el estatus de unicornio. Este éxito trajo consigo nuevos desafíos y oportunidades, especialmente en el ámbito de la gestión de datos y la tecnología.

En esta charla, exploraremos el viaje de Nowports desde sus inicios como una empresa enfocada en un rápido time-to-market, hasta su transformación en una organización data-centric. Analizaremos cómo la empresa tomó decisiones cruciales para mantener su velocidad inicial, y cómo estas elecciones impactaron su infraestructura tecnológica y de datos. Discutiremos el punto de inflexión que representó convertirse en unicornio, momento en el que Nowports reorientó su enfoque hacia sistemas más sostenibles y escalables. Paralelamente, examinaremos cómo la revolución de los LLMs sucedió de manera paralela y nos exigió subir de nivel. Tomaremos este caso para hablar de los retos que tenemos hoy, y discutiremos los diferentes retos que tenemos en las organizaciones para vivir esta transición.

Abordaremos preguntas clave como:

  • ¿Cómo se realiza la transición de una organización para volverse data-centric?
  • ¿Cuáles son las estrategias para mejorar las capacidades analíticas, la gobernanza y la calidad de los datos, mientras se mantienen resultados de negocio positivos, especialmente ahora en el mundo post-ChatGPT?
  • ¿Qué se requiere de una organización y del liderazgo para subir el nivel y lograr sus objetivos, que cosas se tienen que dejar de lado, y cuales se tienen que hacer un double-down?
Sala 1
En Nowports, una startup de logística, experimentamos un gran crecimiento que nos llevó a alcanzar el estatus de unicornio. Este éxito trajo consigo nuevos desafíos y oportunidades, especialmente en el ámbito de la gestión de datos y la tecnología. En esta charla, exploraremos el viaje de Nowports desde sus inicios como una empresa enfocada en un rápido time-to-market, hasta su transformación en una organización data-centric. Analizaremos cómo la empresa tomó decisiones cruciales para mantener su velocidad inicial, y cómo estas elecciones impactaron su infraestructura tecnológica y de datos.
12:40 - 13:20.
Por Miguel Enriquez
Track: Data engineering
Room: Sala 4
11/05/2024 12:40 PM 11/05/2024 1:20 PM America/Monterrey DDMty: Cómo Construir una Plataforma de Datos desde una Perspectiva DevOps

En esta charla compartiré mi experiencia y opinión sobre cómo las organizaciones pueden tomar lecciones aprendidas de la revolución DevOps y aplicarlas para resolver la ““gran brecha de data””. Analizaré el problema de centrarse en pipelines de datos alineando a los dominios de negocio, e introduciré el concepto de Data Mesh que bien implementado puede ayudar a reducir esta brecha entre el dominio del negocio y la ingeniería de datos.

Sala 4
En esta charla compartiré mi experiencia y opinión sobre cómo las organizaciones pueden tomar lecciones aprendidas de la revolución DevOps y aplicarlas para resolver la ““gran brecha de data””. Analizaré el problema de centrarse en pipelines de datos alineando a los dominios de negocio, e introduciré el concepto de Data Mesh que bien implementado puede ayudar a reducir esta brecha entre el dominio del negocio y la ingeniería de datos.
12:40 - 13:20.
Por Arait Monter Corona
Track: Public policy
Room: Sala 3
11/05/2024 12:40 PM 11/05/2024 1:20 PM America/Monterrey DDMty: Predicción de Enfermedades Crónicas: Modelos Avanzados de Series Temporales y Machine Learning

Esta conferencia se centra en las aplicaciones matemáticas y de machine learning para prever la progresión de enfermedades crónicas como la diabetes y las enfermedades cardíacas. Se presentarán enfoques basados en series temporales para analizar datos longitudinales de pacientes, permitiendo la identificación temprana de patrones de riesgo y la personalización de tratamientos. Además, se discutirán los desafíos y oportunidades en la implementación de estas tecnologías en entornos clínicos reales, incluyendo consideraciones éticas y técnicas.

Sala 3
Esta conferencia se centra en las aplicaciones matemáticas y de machine learning para prever la progresión de enfermedades crónicas como la diabetes y las enfermedades cardíacas. Se presentarán enfoques basados en series temporales para analizar datos longitudinales de pacientes, permitiendo la identificación temprana de patrones de riesgo y la personalización de tratamientos. Además, se discutirán los desafíos y oportunidades en la implementación de estas tecnologías en entornos clínicos reales, incluyendo consideraciones éticas y técnicas.
14:20 - 15:00.
Por Jose Juan Garcia Rojas & Azael Carrillo Cabrera
Track: Data engineering
Room: Sala 2
11/05/2024 2:20 PM 11/05/2024 3:00 PM America/Monterrey DDMty: Aceleración del Desarrollo de Modelos de ML en Startups

La naturaleza del desarrollo de modelos de ML es un ciclo de mejora gradual. Para lograr buenos resultados, es importante definir un proceso que permita la rápida iteración.

La ingesta de los datos, el aprovisionamiento de recursos, y el entrenamiento de modelos pueden ser automatizados con orquestación y herramientas de tracking. Esto permite dos cosas importantes, liberación de tiempo de desarrollo, y el uso eficiente de recursos de cómputo.

En esta plática abordamos las decisiones de infraestructura y procesos de MLOps desde la óptica de una startup.

Sala 2
La naturaleza del desarrollo de modelos de ML es un ciclo de mejora gradual. Para lograr buenos resultados, es importante definir un proceso que permita la rápida iteración. La ingesta de los datos, el aprovisionamiento de recursos, y el entrenamiento de modelos pueden ser automatizados con orquestación y herramientas de tracking. Esto permite dos cosas importantes, liberación de tiempo de desarrollo, y el uso eficiente de recursos de cómputo. En esta plática abordamos las decisiones de infraestructura y procesos de MLOps desde la óptica de una startup.
14:20 - 15:00.
Por Maria de la Paz Rico Fernandez, Enrique Cortes Rello, Ernesto Lupercio, Leon Palafox & Alfonso Ruiz Guido
Track: Data strategy
Room: Sala 1
11/05/2024 2:20 PM 11/05/2024 3:00 PM America/Monterrey DDMty: Panel: Habilidades matemáticas en la era de la Ciencia de Datos

En este panel discutiremos sobre la importancia de las habilidades matemáticas en la era de la Ciencia de Datos, y cómo desarrollarlas en equipos empresariales.

Sala 1
En este panel discutiremos sobre la importancia de las habilidades matemáticas en la era de la Ciencia de Datos, y cómo desarrollarlas en equipos empresariales.
14:20 - 15:40.
Por J Francisco Munoz-Elguezabal
Track: Data engineering
Room: Sala 4
11/05/2024 2:20 PM 11/05/2024 3:40 PM America/Monterrey DDMty: Taller: Ingeniería de datos cuantitativa con PostgreSQL y Rust

Learn from basics to intermediate techniques on how to create a simple but powerful model for similarity-indexing for SQL queries, to Optimized a data ETL process with smart caching and UDFs.

Sala 4
Learn from basics to intermediate techniques on how to create a simple but powerful model for similarity-indexing for SQL queries, to Optimized a data ETL process with smart caching and UDFs.
14:20 - 15:00.
Por Amauri Garcia
Track: Public policy
Room: Sala 3
11/05/2024 2:20 PM 11/05/2024 3:00 PM America/Monterrey DDMty: El Poder de los Datos en la Manufactura

En esta charla platicaremos sobre cómo podemos mejorar el desempeño de líneas de manufactura por medio de la captura y análisis de datos. Revisaremos casos y lecciones aprendidas en empresas en Nuevo León, específicamente en la transformación de datos para tableros SQDP y cómo utilizarlos para mejorar la visiblidad a todos los niveles, que habilite la toma de decisiones mejores y más rápidas.

Sala 3
En esta charla platicaremos sobre cómo podemos mejorar el desempeño de líneas de manufactura por medio de la captura y análisis de datos. Revisaremos casos y lecciones aprendidas en empresas en Nuevo León, específicamente en la transformación de datos para tableros SQDP y cómo utilizarlos para mejorar la visiblidad a todos los niveles, que habilite la toma de decisiones mejores y más rápidas.
15:00 - 15:40.
Por Elena Villalobos
Track: Data science
Room: Sala 2
11/05/2024 3:00 PM 11/05/2024 3:40 PM America/Monterrey DDMty: Ciencia de Datos para la Toma de Decisiones sobre Logística Portuaria

En esta conferencia se explora el desarrollo de un producto de datos que tiene como objetivo mejorar la logística portuaria; específicamente, reducir los movimientos desperdicio al momento de estibar los contenedores en una terminal. A partir de la identificación de movimientos innecesarios en el proceso de estiba, se han implementado soluciones basadas en aprendizaje de máquina para predecir el tiempo de estadía de los contenedores y determinar si requerirán servicios aduanales. Además, se abordará cómo se aplicó la ingeniería de variables para clasificar la mercancía utilizando el catálogo HS y técnicas de Procesamiento de Lenguaje Natural, así como la unificación de un catálogo de consignatarios a través de la teoría de grafos. En los resultados del modelamiento se ha observado que, de manera histórica, consistentemente, el mejor modelo incrementa la eficiencia con respecto a lo que hace actualmente la terminal. Finalmente, el producto de datos entrega los resultados del modelamiento a través de una API, permitiendo que se integren y utilicen directamente en las operaciones portuarias. Esta charla ofrecerá una visión detallada de los desafíos enfrentados, las técnicas empleadas, y el impacto de este producto de datos en la industria portuaria.

Sala 2
En esta conferencia se explora el desarrollo de un producto de datos que tiene como objetivo mejorar la logística portuaria; específicamente, reducir los movimientos desperdicio al momento de estibar los contenedores en una terminal. A partir de la identificación de movimientos innecesarios en el proceso de estiba, se han implementado soluciones basadas en aprendizaje de máquina para predecir el tiempo de estadía de los contenedores y determinar si requerirán servicios aduanales.
15:00 - 15:40.
Por Juan Baldemar Garza Villegas
Track: Data strategy
Room: Sala 1
11/05/2024 3:00 PM 11/05/2024 3:40 PM America/Monterrey DDMty: GPT aplicado al área de Calidad en Empresa de Manufactura

Se presenta una prueba de concepto de un chatbot, capaz de responder preguntas en lenguaje natural sobre diferentes documentos de normatividad en el área de calidad dentro de una empresa. La necesidad de desarrollar esta solución surge como respuesta a la complejidad y extensión de la información contenida en los documentos, así como su frecuente consulta. Por lo que esta implementación pretende reducir esos tiempos de consulta en usuarios finales. La realización de esta prueba de concepto permitirá evaluar la viabilidad técnica y el caso de negocio de la implementación de un chatbot de estas características. Se presentarán resultados obtenidos en términos de la reducción del tiempo en consultas con apoyo del chatbot, considerando la calidad de las respuestas, el número de intentos y las recomendaciones necesarias para una correcta ejecución de consulta, es decir, ingeniería del prompt. En esta empresa de manufactura la Calidad lleva cientos de consultas al año, para asegurar la calidad de productos. Por ejemplo, se cuenta con una base de más de 3,600 normas de calidad nacionales e internacionales.

En la mayoría de los casos, la recopilación, búsqueda y análisis sobre esa cantidad de información, dependen en gran medida de la expertise del usuario que ejecuta las consultas. Actividades que, potencialmente, pueden ser apoyadas con soluciones tecnológicas que permita reducir los tiempos y costos.

La propuesta es el uso de un motor de búsqueda semántica basada en texto, junto con un procesador de lenguaje natural, que permitan hacer consultas al contenido de los documentos, formulado las preguntas adecuadas con base en contexto, palabras clave y analogías, facilitando el proceso de búsqueda y análisis de información.

Se compartirá con la audiencia la experiencia de este caso de uso y que retos se deben considerar en la estrategia de implementación de IA Generativa.

Sala 1
Se presenta una prueba de concepto de un chatbot, capaz de responder preguntas en lenguaje natural sobre diferentes documentos de normatividad en el área de calidad dentro de una empresa. La necesidad de desarrollar esta solución surge como respuesta a la complejidad y extensión de la información contenida en los documentos, así como su frecuente consulta. Por lo que esta implementación pretende reducir esos tiempos de consulta en usuarios finales. La realización de esta prueba de concepto permitirá evaluar la viabilidad técnica y el caso de negocio de la implementación de un chatbot de estas características.
15:00 - 15:40.
Por Paola Abril Campos
Track: Public policy
Room: Sala 3
11/05/2024 3:00 PM 11/05/2024 3:40 PM America/Monterrey DDMty: La Transformacion Digital de los Sistemas de Salud

La pandemia de COVID-19 obligó a los gobiernos a acelerar la transformación digital de los sistemas de salud, sin embargo, la propia premura de los cambios dada la emergencia podría condicionar la sostenibilidad de estos esfuerzos. Es necesario seguir avanzando hacia la transformación digital de los sistemas de salud para lograr la cobertura universal en salud. Y para esto, necesitamos aprender no sólo sobre qué ha funcionado sino cómo se han logrado los avances observados. Pero también necesitamos repensar la manera en la que abordamos la transformación digital de los sistemas de salud. ¿Cómo podemos resolver los problemas de salud y de sistemas de salud con la transformación digital?

Sala 3
La pandemia de COVID-19 obligó a los gobiernos a acelerar la transformación digital de los sistemas de salud, sin embargo, la propia premura de los cambios dada la emergencia podría condicionar la sostenibilidad de estos esfuerzos. Es necesario seguir avanzando hacia la transformación digital de los sistemas de salud para lograr la cobertura universal en salud. Y para esto, necesitamos aprender no sólo sobre qué ha funcionado sino cómo se han logrado los avances observados.
15:40 - 16:20.
Por Carlos Daniel Vazquez Rosas
Track: Data strategy
Room: Sala 1
11/05/2024 3:40 PM 11/05/2024 4:20 PM America/Monterrey DDMty: Impulsando Decisiones Estratégicas en venta de bienes de consumo masivo a través del Machine Learning

En los últimos años, la competencia en la industria de los bienes de consumo masivo se ha intensificado. Las decisiones rápidas, dinámicas y basadas en datos son cruciales para mantener el liderazgo en el sector. Los modelos de machine learning se han convertido en pieza clave para transformar las grandes cantidades de información, en decisiones estratégicas que generarán valor. En esta plática se explorará, el cómo modelos avanzados de machine learning pueden ser utilizados para mejorar las estrategias de pricing, optimizar inventarios, predecir tendencias de mercado y de consumo en la industria de los bienes de consumo masivo.

El inicio de la plática, será una introducción sobre los desafíos específicos que enfrenta la industria de bienes de consumo masivo en la actualidad, desde gestión de inventario, pasando por la correcta asignación de precios, hasta la personalización de experiencia del cliente. Después, tocaré el tema específico, con base a mi experiencia profesional en el sector, de cómo desarrollar modelos predictivos que no solo anticipan las tendencias de compra, sino que también identifican oportunidades de optimización de precios y segmentación de los clientes, que tienen como resultado mejoras significativas en la eficiencia operativa, aumento en la rentabilidad d ellos productos y una mejora en la satisfacción del cliente.

Además, abordaré los retos y aprendizajes derivados de la implementación de estos modelos en un entorno real, incluyendo la gestión de grandes datasets y la integración de soluciones de IA con sistemas de gestión empresarial existentes. Finalmente, ofreceré una perspectiva sobre el futuro de la ciencia de datos en la industria del consumo masivo, destacando las nuevas tecnologías emergentes y cómo podrían moldear las estrategias de negocio en los próximos años.

Sala 1
En los últimos años, la competencia en la industria de los bienes de consumo masivo se ha intensificado. Las decisiones rápidas, dinámicas y basadas en datos son cruciales para mantener el liderazgo en el sector. Los modelos de machine learning se han convertido en pieza clave para transformar las grandes cantidades de información, en decisiones estratégicas que generarán valor. En esta plática se explorará, el cómo modelos avanzados de machine learning pueden ser utilizados para mejorar las estrategias de pricing, optimizar inventarios, predecir tendencias de mercado y de consumo en la industria de los bienes de consumo masivo.
15:40 - 16:20.
Por Daniel Uribe Trancoso
Track: Data science
Room: Sala 2
11/05/2024 3:40 PM 11/05/2024 4:20 PM America/Monterrey DDMty: Machine Learning para la Tributación Fiscal del Costo de lo Vendido

Durante la plática, conoceremos un pipeline de Machine Learning que utiliza código en R Studio y Python, con librerías de ciencia de datos y sistemas RAG para lograr:

  1. Identificar conceptos relacionados entre facturas emitidas y facturas recibidas logrando calcular el costo de lo vendido.
  2. Identificar facturas canceladas y asignar periodos de consideración para facturas emitidas de acuerdo a criterios fiscales.
  3. Identificar conceptos deducibles de impuestos de acuerdo a la naturaleza de operación del negocio.
Sala 2
Durante la plática, conoceremos un pipeline de Machine Learning que utiliza código en R Studio y Python, con librerías de ciencia de datos y sistemas RAG para lograr: Identificar conceptos relacionados entre facturas emitidas y facturas recibidas logrando calcular el costo de lo vendido. Identificar facturas canceladas y asignar periodos de consideración para facturas emitidas de acuerdo a criterios fiscales. Identificar conceptos deducibles de impuestos de acuerdo a la naturaleza de operación del negocio.
15:40 - 16:20.
Por Leonardo Alfonso Ramos Corona
Track: Public policy
Room: Sala 3
11/05/2024 3:40 PM 11/05/2024 4:20 PM America/Monterrey DDMty: Modelo de Predicción de Contaminación Atmosférica

Se presenta un modelo de predicción de la contaminación atmosférica por partículas PM2.5 en la Zona Metropolitana de Toluca. El modelo predictivo se realizó considerando un conjunto de datos obtenido de la RAMA. El proceso metodológico se centró en preparación del conjunto de datos y su análisis descriptivo, la elección de las mejores variables, la generalización del algoritmo, la elección de los mejores hiper parámetros que ayudaron a ajustar el modelo, una predicción de la contaminación por medio de técnicas clasificación y regresión y la interpretación y explicación de los resultados. En todos los procesos se aplicaron técnicas de Machine Learning haciendo uso de las librerías de Sckit Learn con algoritmos en Python. Los modelos se evaluaron con métricas de regresión y métricas de clasificación. Los resultados de la predicción generaron valores de contaminación por PM2.5 muy similares a la media actual, teniendo un error de variación de aproximadamente 5.5% equivalente a 5.35 unidades IMECA de partículas PM2.5. El modelo de clasificación encontró una probabilidad del 81% de que en 51 días la calidad del aire predicha como mala en realidad sea regular.

Sala 3
Se presenta un modelo de predicción de la contaminación atmosférica por partículas PM2.5 en la Zona Metropolitana de Toluca. El modelo predictivo se realizó considerando un conjunto de datos obtenido de la RAMA. El proceso metodológico se centró en preparación del conjunto de datos y su análisis descriptivo, la elección de las mejores variables, la generalización del algoritmo, la elección de los mejores hiper parámetros que ayudaron a ajustar el modelo, una predicción de la contaminación por medio de técnicas clasificación y regresión y la interpretación y explicación de los resultados.
15:40 - 17:00.
Por Hermilo Cortes
Track: Data engineering
Room: Sala 4
11/05/2024 3:40 PM 11/05/2024 5:00 PM America/Monterrey DDMty: Taller: DataFrames en Alto Rendimiento con Polars

Polars es un framework para el manejo de datos estructurados. Desarrollado en Rust, el framework está pensando para explotar características de hardware que permiten mejorar el desempeño principalmente mediante el uso de los cores disponibles (algoritmos de work stealing para división de trabajo), así como operaciones vectorizadas SIMD. En este taller se presenta una introducción al framework en Python. Se realiza un comparativo de tiempos de ejecución con otros frameworks (Pandas e.g) para mostrar sus ganancias en desempeño.

Sala 4
Polars es un framework para el manejo de datos estructurados. Desarrollado en Rust, el framework está pensando para explotar características de hardware que permiten mejorar el desempeño principalmente mediante el uso de los cores disponibles (algoritmos de work stealing para división de trabajo), así como operaciones vectorizadas SIMD. En este taller se presenta una introducción al framework en Python. Se realiza un comparativo de tiempos de ejecución con otros frameworks (Pandas e.
16:20 - 17:00.
Por Santiago de la Cruz
Track: Public policy
Room: Sala 3
11/05/2024 4:20 PM 11/05/2024 5:00 PM America/Monterrey DDMty: Ciclismo e IA

Como combinar uno de los ejercicios mas completos como lo es el ciclismo con la IA, el como puede esto desencadenar una mejora de la tecnica, mejora de sensores para rodadas en grupos para poder avisar al contigente o diseñar nuevos cuadros guiado con la IA.

Sala 3
Como combinar uno de los ejercicios mas completos como lo es el ciclismo con la IA, el como puede esto desencadenar una mejora de la tecnica, mejora de sensores para rodadas en grupos para poder avisar al contigente o diseñar nuevos cuadros guiado con la IA.
16:20 - 17:00.
Por Edison Vazquez
Track: Data science
Room: Sala 2
11/05/2024 4:20 PM 11/05/2024 5:00 PM America/Monterrey DDMty: Leveraging Graph Neural Networks with Procurement Data

Graph Neural Networks (GNNs) are particularly effective when dealing with non-Euclidean data representations without losing their inherent meaning. In our scenario, we have a network of connections among over 10,000 suppliers and aim to generate accurate recommendations for a new supplier or address inquiries such as, What is the best alternative supplier to switch to? and What are the characteristics and motivations for acquiring a supplier? We will delve into the theoretical aspects of GNNs and present the findings obtained.

Sala 2
Graph Neural Networks (GNNs) are particularly effective when dealing with non-Euclidean data representations without losing their inherent meaning. In our scenario, we have a network of connections among over 10,000 suppliers and aim to generate accurate recommendations for a new supplier or address inquiries such as, What is the best alternative supplier to switch to? and What are the characteristics and motivations for acquiring a supplier? We will delve into the theoretical aspects of GNNs and present the findings obtained.
16:20 - 17:00.
Por Aldo Valadez
Track: Data strategy
Room: Sala 1
11/05/2024 4:20 PM 11/05/2024 5:00 PM America/Monterrey DDMty: Más Allá de FinOps: Optimización de costos en la nube

La utilización de infraestructura y servicios de nube pública brinda agilidad y conveniencia. Por otro lado, al usar servicios de nube pública para procesar datos, la falta de estrategias adecuadas de optimización puede llevar a un gasto innecesario y a una disminución en la eficiencia operativa.

En esta charla compartiré tips y recomendaciones que he aprendido a traves de mi experiencia como Chief Analytics Officer, que te ayudarán a establecer estrategias adecuadas para gestionar costos en la contratación de servicios de cómputo en la nube.

Sala 1
La utilización de infraestructura y servicios de nube pública brinda agilidad y conveniencia. Por otro lado, al usar servicios de nube pública para procesar datos, la falta de estrategias adecuadas de optimización puede llevar a un gasto innecesario y a una disminución en la eficiencia operativa. En esta charla compartiré tips y recomendaciones que he aprendido a traves de mi experiencia como Chief Analytics Officer, que te ayudarán a establecer estrategias adecuadas para gestionar costos en la contratación de servicios de cómputo en la nube.
17:20 - 18:00.
Por antonio-padros
Track: Data strategy
Room: Sala 1
11/05/2024 5:20 PM 11/05/2024 6:00 PM America/Monterrey DDMty: Automático, no Autónomo

¿A quién pertenece el conocimiento que provino del análisis de datos? Al dueño de los datos que ordenó el estudio. Típicamente, una empresa.

¿Se cumple siempre con este precepto? No siempre: Depende cómo se entregue a la empresa el resultado del análisis. Se puede hacer que un sistema de cómputo corra una rutina off-premises para llegar al resultado, de modo que nunca se entrega a manera de conocimiento abierto, fórmulas o software genérico. Del entendimiento surge la creatividad para mejorar, por lo que es una omisión grave.

Entonces, ¿qué debe buscar un gerente para mantener el control de su operación e incorporar un resultado analítico?

En esta plática se proponen maneras de combinar los resultados analíticos con el conocimiento fundamental, de manera que se reduzca la dependencia de la plataforma analítica y se logre distinguir cómo aporta un estudio a mejorar los resultados de la empresa.

Sala 1
¿A quién pertenece el conocimiento que provino del análisis de datos? Al dueño de los datos que ordenó el estudio. Típicamente, una empresa. ¿Se cumple siempre con este precepto? No siempre: Depende cómo se entregue a la empresa el resultado del análisis. Se puede hacer que un sistema de cómputo corra una rutina off-premises para llegar al resultado, de modo que nunca se entrega a manera de conocimiento abierto, fórmulas o software genérico.
17:20 - 18:00.
Por Daniel Ortiz
Track: Public policy
Room: Sala 3
11/05/2024 5:20 PM 11/05/2024 6:00 PM America/Monterrey DDMty: De Datos a Decisiones: El rol fundamental de la ética

En un mundo impulsado por datos, la ética y la gobernanza se vuelven esenciales para construir confianza y proteger los derechos de los usuarios. Esta ponencia explora cómo los principios éticos pueden integrarse en la gestión de datos, abordando temas como privacidad, calidad y seguridad. Aprenderás estrategias para crear una cultura ética que no solo protege a la organización, sino que también se convierte en una ventaja competitiva en el entorno digital. ¡Únete para descubrir cómo una gestión de datos ética transforma el futuro empresarial!

Sala 3
En un mundo impulsado por datos, la ética y la gobernanza se vuelven esenciales para construir confianza y proteger los derechos de los usuarios. Esta ponencia explora cómo los principios éticos pueden integrarse en la gestión de datos, abordando temas como privacidad, calidad y seguridad. Aprenderás estrategias para crear una cultura ética que no solo protege a la organización, sino que también se convierte en una ventaja competitiva en el entorno digital.
17:20 - 18:40.
Por Cynthia Castillo
Track: Data engineering
Room: Sala 4
11/05/2024 5:20 PM 11/05/2024 6:40 PM America/Monterrey DDMty: Taller: Calidad De Datos con Great Expectations

¿Estás cansado de lidiar con datos inconsistentes y poco fiables? ¡Es hora de transformar tu enfoque con Great Expectations! En este taller conocerás cómo esta poderosa herramienta puede revolucionar la calidad de tus datos, asegurando precisión y confianza en tus análisis y reportes.

Sala 4
¿Estás cansado de lidiar con datos inconsistentes y poco fiables? ¡Es hora de transformar tu enfoque con Great Expectations! En este taller conocerás cómo esta poderosa herramienta puede revolucionar la calidad de tus datos, asegurando precisión y confianza en tus análisis y reportes.
9:00 - 9:10
Bienvenida
10:50 - 11:20
Break
13:20 - 14:20
Comida
17:00 - 17:20
Break
09:10 - 09:40. Sala 1
By Adolfo De Unanue
Track: Data strategy
En un mundo donde los Grandes Modelos de Lenguaje (LLMs) y agentes autónomos están transformando múltiples industrias, es esencial desarrollar aplicaciones basadas en principios que aseguren su estabilidad, adaptabilidad y capacidad de gestionar la complejidad inherente. Esta ponencia explora cómo los conceptos de estabilidad dinámica mediante funciones de Lyapunov, la adaptabilidad a través de las estructuras disipativas de Prigogine, y la cibernética organizacional de Stafford Beer deberían guiar el diseño de estas aplicaciones.
09:40 - 10:10. Sala 1
Track: Data strategy
10:10 - 10:50. Sala 1
Serie de charlas relámpago presentadas por distintos conferencistas.
11:20 - 12:00. Sala 1
By Luis Almazan & Daniel Teran
Track: Data strategy
“El auge de los LLMs con sus capacidades conversacionales y de estructurar la información han hecho que las empresas volteen a explorar diferentes formas de aprovecharlas y adaptarlas a sus necesidades. Estrategias como Prompt Engineering o RAGs son las opciones más populares para aprovechar estas capacidades, por su aparente facilidad de implementación pero… es justo aquí donde empiezan las letras chiquitas: ¿Mi caso de uso es para un LLM simple o necesita trabajo de prompt engineering o un LLM + RAG o …la combinación de alguna de las anteriores?
11:20 - 12:00. Sala 3
By Alina Sotolongo Aguiar & Adjani Gama Dessavre
Track: Public policy
En esta charla se presentará un proyecto colaborativo entre AbogadasMX y Data-Pop Alliance. Este se basa en recopilar y visualizar datos sobre varios aspectos laborales enfocados en la equidad de género entre los despachos de abogados en el país. Para este objetivo se realizó el diseño e implementación de un CRM (software de customer relationship management) y una base de datos central para AbogadasMX, así como el cuestionario mediante el cual se podrán obtener los datos de los diferentes despachos.
11:20 - 12:00. Sala 4
By Hector Cuesta
Track: Data engineering
Asegurar la calidad de los datos se ha convertido en un desafío crítico para las organizaciones que buscan precisión, consistencia y confiabilidad en sus procesos de toma de decisiones. Esta charla abordará las estrategias multifacéticas y las herramientas esenciales para mantener una alta calidad de datos como Great Expectations o Apache Griffin. Exploraremos prácticas clave como el perfilado, limpieza y validación de datos, junto con Frameworks robustos de gobernanza y gestión de metadatos.
12:00 - 12:40. Sala 1
By Leandro Srur
Track: Data strategy
Se mostrarán a partir de casos prácticos como la IA Generativa ayuda a las áreas de Datos y Analítica a la provisión de herramientas para facilitar la autogestión (self services) de las áreas usuarias de negocio. Se mostrarán caos de asistentes de catálogo de datos, recomendaciones basadas en uso y sugerencias de insights.
12:00 - 13:20. Sala 2
By Alfonso Ruiz Guido
Track: Data science
En este taller se hablará sobre el enorme reto tanto para los matemáticos como para los científicos de datos y estrategas de negocios, que representa definir correctamente la métrica de evaluación de un modelo matemático para producir resultados tangibles dentro de un negocio. El caso extremo de este problema es el famoso Test de Turing en el que evaluar cuándo un modelo matemático ha logrado la Inteligencia Artificial se ha demostrado ambiguo y no es completamente claro si ChatGPT lo ha pasado o no.
12:00 - 12:40. Sala 3
By Gonzalo Peraza
Track: Public policy
En las últimas tres décadas, la Zona Metropolitana de Monterrey se ha expandido a un ritmo insostenible. Sin embargo, hasta hace poco, no era posible tener una visión completa de este fenómeno, haciendo difícil mantener una discusión informada sobre el problema. En esta plática, seguiremos una narrativa basada en datos (utilizando la nueva plataforma ciudadfinita.mx) a través de las diferentes facetas de la expansión urbana en la Zona Metropolitana de Monterrey y los problemas que ocasiona.
12:00 - 12:40. Sala 4
By Antonio Arias Mejia
Track: Data engineering
En esta conferencia caminaremos en uno de los retos que afrontó una organización en transicion a la digitalización para fortalecer a sus analistas de reclamos de garantías. Para ello, exploramos los distintos componentes que de su arquitectura y cómo estos permitieron su integración con un modelo de Machine Learning que empodera a los agentes proveyendo de mayor información histórica y un acercamiento predictivo para que puedan tomar la mejor decisión.
12:40 - 13:20. Sala 1
By Ricardo Daniel Alanis Tamez
Track: Data strategy
En Nowports, una startup de logística, experimentamos un gran crecimiento que nos llevó a alcanzar el estatus de unicornio. Este éxito trajo consigo nuevos desafíos y oportunidades, especialmente en el ámbito de la gestión de datos y la tecnología. En esta charla, exploraremos el viaje de Nowports desde sus inicios como una empresa enfocada en un rápido time-to-market, hasta su transformación en una organización data-centric. Analizaremos cómo la empresa tomó decisiones cruciales para mantener su velocidad inicial, y cómo estas elecciones impactaron su infraestructura tecnológica y de datos.
12:40 - 13:20. Sala 3
By Arait Monter Corona
Track: Public policy
Esta conferencia se centra en las aplicaciones matemáticas y de machine learning para prever la progresión de enfermedades crónicas como la diabetes y las enfermedades cardíacas. Se presentarán enfoques basados en series temporales para analizar datos longitudinales de pacientes, permitiendo la identificación temprana de patrones de riesgo y la personalización de tratamientos. Además, se discutirán los desafíos y oportunidades en la implementación de estas tecnologías en entornos clínicos reales, incluyendo consideraciones éticas y técnicas.
12:40 - 13:20. Sala 4
By Miguel Enriquez
Track: Data engineering
En esta charla compartiré mi experiencia y opinión sobre cómo las organizaciones pueden tomar lecciones aprendidas de la revolución DevOps y aplicarlas para resolver la ““gran brecha de data””. Analizaré el problema de centrarse en pipelines de datos alineando a los dominios de negocio, e introduciré el concepto de Data Mesh que bien implementado puede ayudar a reducir esta brecha entre el dominio del negocio y la ingeniería de datos.
14:20 - 15:00. Sala 1
By Maria de la Paz Rico Fernandez, Enrique Cortes Rello, Ernesto Lupercio, Leon Palafox & Alfonso Ruiz Guido
Track: Data strategy
En este panel discutiremos sobre la importancia de las habilidades matemáticas en la era de la Ciencia de Datos, y cómo desarrollarlas en equipos empresariales.
14:20 - 15:00. Sala 2
By Jose Juan Garcia Rojas & Azael Carrillo Cabrera
Track: Data engineering
La naturaleza del desarrollo de modelos de ML es un ciclo de mejora gradual. Para lograr buenos resultados, es importante definir un proceso que permita la rápida iteración. La ingesta de los datos, el aprovisionamiento de recursos, y el entrenamiento de modelos pueden ser automatizados con orquestación y herramientas de tracking. Esto permite dos cosas importantes, liberación de tiempo de desarrollo, y el uso eficiente de recursos de cómputo. En esta plática abordamos las decisiones de infraestructura y procesos de MLOps desde la óptica de una startup.
14:20 - 15:00. Sala 3
By Amauri Garcia
Track: Public policy
En esta charla platicaremos sobre cómo podemos mejorar el desempeño de líneas de manufactura por medio de la captura y análisis de datos. Revisaremos casos y lecciones aprendidas en empresas en Nuevo León, específicamente en la transformación de datos para tableros SQDP y cómo utilizarlos para mejorar la visiblidad a todos los niveles, que habilite la toma de decisiones mejores y más rápidas.
14:20 - 15:40. Sala 4
By J Francisco Munoz-Elguezabal
Track: Data engineering
Learn from basics to intermediate techniques on how to create a simple but powerful model for similarity-indexing for SQL queries, to Optimized a data ETL process with smart caching and UDFs.
15:00 - 15:40. Sala 1
By Juan Baldemar Garza Villegas
Track: Data strategy
Se presenta una prueba de concepto de un chatbot, capaz de responder preguntas en lenguaje natural sobre diferentes documentos de normatividad en el área de calidad dentro de una empresa. La necesidad de desarrollar esta solución surge como respuesta a la complejidad y extensión de la información contenida en los documentos, así como su frecuente consulta. Por lo que esta implementación pretende reducir esos tiempos de consulta en usuarios finales. La realización de esta prueba de concepto permitirá evaluar la viabilidad técnica y el caso de negocio de la implementación de un chatbot de estas características.
15:00 - 15:40. Sala 2
By Elena Villalobos
Track: Data science
En esta conferencia se explora el desarrollo de un producto de datos que tiene como objetivo mejorar la logística portuaria; específicamente, reducir los movimientos desperdicio al momento de estibar los contenedores en una terminal. A partir de la identificación de movimientos innecesarios en el proceso de estiba, se han implementado soluciones basadas en aprendizaje de máquina para predecir el tiempo de estadía de los contenedores y determinar si requerirán servicios aduanales.
15:00 - 15:40. Sala 3
By Paola Abril Campos
Track: Public policy
La pandemia de COVID-19 obligó a los gobiernos a acelerar la transformación digital de los sistemas de salud, sin embargo, la propia premura de los cambios dada la emergencia podría condicionar la sostenibilidad de estos esfuerzos. Es necesario seguir avanzando hacia la transformación digital de los sistemas de salud para lograr la cobertura universal en salud. Y para esto, necesitamos aprender no sólo sobre qué ha funcionado sino cómo se han logrado los avances observados.
15:40 - 16:20. Sala 1
By Carlos Daniel Vazquez Rosas
Track: Data strategy
En los últimos años, la competencia en la industria de los bienes de consumo masivo se ha intensificado. Las decisiones rápidas, dinámicas y basadas en datos son cruciales para mantener el liderazgo en el sector. Los modelos de machine learning se han convertido en pieza clave para transformar las grandes cantidades de información, en decisiones estratégicas que generarán valor. En esta plática se explorará, el cómo modelos avanzados de machine learning pueden ser utilizados para mejorar las estrategias de pricing, optimizar inventarios, predecir tendencias de mercado y de consumo en la industria de los bienes de consumo masivo.
15:40 - 16:20. Sala 2
By Daniel Uribe Trancoso
Track: Data science
Durante la plática, conoceremos un pipeline de Machine Learning que utiliza código en R Studio y Python, con librerías de ciencia de datos y sistemas RAG para lograr: Identificar conceptos relacionados entre facturas emitidas y facturas recibidas logrando calcular el costo de lo vendido. Identificar facturas canceladas y asignar periodos de consideración para facturas emitidas de acuerdo a criterios fiscales. Identificar conceptos deducibles de impuestos de acuerdo a la naturaleza de operación del negocio.
15:40 - 16:20. Sala 3
By Leonardo Alfonso Ramos Corona
Track: Public policy
Se presenta un modelo de predicción de la contaminación atmosférica por partículas PM2.5 en la Zona Metropolitana de Toluca. El modelo predictivo se realizó considerando un conjunto de datos obtenido de la RAMA. El proceso metodológico se centró en preparación del conjunto de datos y su análisis descriptivo, la elección de las mejores variables, la generalización del algoritmo, la elección de los mejores hiper parámetros que ayudaron a ajustar el modelo, una predicción de la contaminación por medio de técnicas clasificación y regresión y la interpretación y explicación de los resultados.
15:40 - 17:00. Sala 4
By Hermilo Cortes
Track: Data engineering
Polars es un framework para el manejo de datos estructurados. Desarrollado en Rust, el framework está pensando para explotar características de hardware que permiten mejorar el desempeño principalmente mediante el uso de los cores disponibles (algoritmos de work stealing para división de trabajo), así como operaciones vectorizadas SIMD. En este taller se presenta una introducción al framework en Python. Se realiza un comparativo de tiempos de ejecución con otros frameworks (Pandas e.
16:20 - 17:00. Sala 1
By Aldo Valadez
Track: Data strategy
La utilización de infraestructura y servicios de nube pública brinda agilidad y conveniencia. Por otro lado, al usar servicios de nube pública para procesar datos, la falta de estrategias adecuadas de optimización puede llevar a un gasto innecesario y a una disminución en la eficiencia operativa. En esta charla compartiré tips y recomendaciones que he aprendido a traves de mi experiencia como Chief Analytics Officer, que te ayudarán a establecer estrategias adecuadas para gestionar costos en la contratación de servicios de cómputo en la nube.
16:20 - 17:00. Sala 2
By Edison Vazquez
Track: Data science
Graph Neural Networks (GNNs) are particularly effective when dealing with non-Euclidean data representations without losing their inherent meaning. In our scenario, we have a network of connections among over 10,000 suppliers and aim to generate accurate recommendations for a new supplier or address inquiries such as, What is the best alternative supplier to switch to? and What are the characteristics and motivations for acquiring a supplier? We will delve into the theoretical aspects of GNNs and present the findings obtained.
16:20 - 17:00. Sala 3
By Santiago de la Cruz
Track: Public policy
Como combinar uno de los ejercicios mas completos como lo es el ciclismo con la IA, el como puede esto desencadenar una mejora de la tecnica, mejora de sensores para rodadas en grupos para poder avisar al contigente o diseñar nuevos cuadros guiado con la IA.
17:20 - 18:00. Sala 1
By antonio-padros
Track: Data strategy
¿A quién pertenece el conocimiento que provino del análisis de datos? Al dueño de los datos que ordenó el estudio. Típicamente, una empresa. ¿Se cumple siempre con este precepto? No siempre: Depende cómo se entregue a la empresa el resultado del análisis. Se puede hacer que un sistema de cómputo corra una rutina off-premises para llegar al resultado, de modo que nunca se entrega a manera de conocimiento abierto, fórmulas o software genérico.
17:20 - 18:00. Sala 3
By Daniel Ortiz
Track: Public policy
En un mundo impulsado por datos, la ética y la gobernanza se vuelven esenciales para construir confianza y proteger los derechos de los usuarios. Esta ponencia explora cómo los principios éticos pueden integrarse en la gestión de datos, abordando temas como privacidad, calidad y seguridad. Aprenderás estrategias para crear una cultura ética que no solo protege a la organización, sino que también se convierte en una ventaja competitiva en el entorno digital.
17:20 - 18:40. Sala 4
By Cynthia Castillo
Track: Data engineering
¿Estás cansado de lidiar con datos inconsistentes y poco fiables? ¡Es hora de transformar tu enfoque con Great Expectations! En este taller conocerás cómo esta poderosa herramienta puede revolucionar la calidad de tus datos, asegurando precisión y confianza en tus análisis y reportes.