Data Live es un programa en vivo que trae para ti a ingenieros y científicos de datos de renombre, para llevarte paso a paso a través de las tecnologías más nuevas y útiles en este fascinante mundo de la ciencia de datos.

Data Live: Visión de contenidos para Data Day Monterrey 2022

Data Live: Visión de contenidos para Data Day Monterrey 2022

Regresa Data Live con miras a preparar el camino hacia Data Day Monterrey 2022. En el primer episodio de esta temporada platicaremos sobre el enfoque de contenidos que tendrá esta edición del evento, que es la primera en realizarse de forma presencial desde 2019. ¡Agrégalo a tu calendario! 14 de septiembre 19:00 hrs. (hora Ciudad de México)       O bien, puedes agregar un recordatorio de YouTube.

Data Live 8: Técnicas para un mejor Computer Vision

Data Live 8: Técnicas para un mejor Computer Vision

En ocasiones parece que Computer Vision sólo es detección de objetos, pero es mucho más, hay muchas vertientes para especializarte dentro de esta área como Percepción 3D, Procesamiento de imágenes o todas las nuevas aplicaciones que involucran Machine Learning, así que porqué limitarnos sólo a una cuando hay tanto potencial por explotar con diferentes aplicaciones de computer vision que influyen en cualquier lugar. Actualmente es profesor de cátedra en el Tecnológico de Monterrey, es Senior Data Scientist en NovaComp y es Co-Director de DataLab Community.

Data Live 7: Procesamiento de datos para el análisis y pronóstico de series de tiempo en Python

Data Live 7: Procesamiento de datos para el análisis y pronóstico de series de tiempo en Python

Link: https://www.dropbox.com/sh/myu7r1jp88b6mdp/AABRu9jv0OW-XD8dgge8rDNSa?dl=0 En esta ponencia hablaremos de cómo implementar una metodología para el desarrollo de modelos de Machine Learning para generar una herramienta para el análisis descriptivo que pueda responder lo que está sucediendo en el mercado y crear visualizaciones estratégicas en Python que permitan a los usuarios estudiar las propiedades de los datos y tomar las medidas adecuadas antes de construir cualquier modelo predictivo. Requisitos: Nivel básico en programación en Python Entendimiento de estadística básica Instalación de Python 3.

Data Live 6: El bias-variance tradeoff: lo más importante que debes saber de Machine Learning

Data Live 6: El bias-variance tradeoff: lo más importante que debes saber de Machine Learning

Github: https://github.com/xuxoramos/bias-variance-tradeoff-simulation Ya sabemos que al desarrollar un modelo, debemos de seleccionar bien nuestros features para maximizar poder predictivo. También hemos escuchado que “más datos superan a un modelo muy sofisticado”. Igual hemos visto que muchos de nosotros tomamos todas nuestras variables y así se las aventamos al modelo, obteniendo relaciones e inferencias espurias. El concepto del bias-variance tradeoff es lo que nos pone en el justo medio de estas 3 situaciones, y es el concepto más, más, más importante de Machine Learning, y al cual se le dedica poco tiempo en universidades, y nadita en bootcamps.

Data Live 5: Destruyendo mitos: ¡R puede desplegarse en producción!

Data Live 5: Destruyendo mitos: ¡R puede desplegarse en producción!

El seguir buenas prácticas de programación en R y alinearnos a una metodología de trabajo (SCRUM) nos han permitido mantener modelos estadísticos y comunicar resultados a clientes en un esquema automatizado y robusto. Además, esto posibilita actuar con rapidez en la resolución de bugs en producción y así minimizar errores que se traducen en tiempo y posibles pérdidas económicas. Esto permite mantener múltiples análisis y actualizarlos de forma automatizada.

Data Live 4: De la Ciencia de Datos al MLOps

Data Live 4: De la Ciencia de Datos al MLOps

Desde la idea de utilizar un modelo de aprendizaje automático, hasta su despliegue en un ambiente productivo y su posterior monitoreo, los procesos robustos y las buenas prácticas de ingeniería de software son fundamentales para asegurar su calidad y su correcto funcionamiento. MLOps (Machine Learning Operations) surge para intentar cubrir aquellos aspectos donde la ingeniería es necesaria para garantizar la comunicación entre científicos de datos e ingenieros de aprendizaje automático.

Data Live 3: AWS SageMaker - from Zero to Hero

Data Live 3: AWS SageMaker - from Zero to Hero

El repositorio de Github con estos ejercicios es https://github.com/arinarmo/page2sage SageMaker es una herramienta poderosísima y versátil, aunque solo disponible para AWS. No es cara, pero tampoco es gratis. Su poder reside en que con una interfaz muy amigable y conocida, podemos desarrollar productos de ciencia de datos de punta a punta, es decir, desde la adquisición de datos, hasta la envoltura de un modelo de machine learning en un API para habilitar predicciones continuas y sobre todo, recolección de datos de la realidad de negocio cambiada por las sugerencias de nuestro modelo.

Data Live 2: Cosas sencillas pero efectivas en Data Engineering: Una intro a la ingeniería de datos usando Azure

Data Live 2: Cosas sencillas pero efectivas en Data Engineering: Una intro a la ingeniería de datos usando Azure

Esta charla toca el primer tema de una serie de artículos que, de manera muy simple, intenta introducirnos al uso de diferentes nubes y servicios para crear soluciones efectivas de obtención, almacenamiento y transformación de datos; y cómo mostrar esta información al cliente de una manera rápida y fácilmente accesible. Aprenderás a desarrollar una solución low-code para manejo de datos masivos. Para ello, es recomendable que tengas: Una cuenta de Azure (puede ser estudiante o capa gratuita también).

Data Live 1: Analizando solicitudes de información al INAI con Python y presentando resultados con StreamLit

Data Live 1: Analizando solicitudes de información al INAI con Python y presentando resultados con StreamLit

Tenemos una mina de oro en una plataforma que está como maldita desde que nació: La plataforma nacional de transparencia. Un acervo de datos sobre solicitudes nos esperan, para poder entender el uso de la herramienta actual y hacia donde podría ir. Discutamos sobre la parte técnica, obtener los datos, agruparlos y presentarlos de manera atractiva, pero preguntémonos el valor de datos tan interesantes expuestos de una manera no accesible ni atractiva.