Tracks:

Estrategia
Machine learning
Ingeniería de datos
Data para el bienestar social
Taller

Los horarios deben mostrarse en tu horario local.

2021-03-22T16:00:00.000Z

Ya tengo un modelo. ¿Y ahora qué hago con él?

por Adolfo de Unanue

Una parte no discutida en ciencia de datos es qué sucede con los modelos una vez que han sido creados, discutiremos algunos casos que resalten la importancia de definir una acción y como evoluciona con el desarrollo del proyecto. Veremos también algunos temas de interpretabilidad y postmodelado.

Data strategy

por Liliana Millán

Using NLP to improve the management of clinical data

por Courtney Irwin

Courtney Irwin (MetadataWorks) will present two recent case studies utilising natural language processing methods to improve the utility and interoperability of clinical data for the National Health Service in the UK. MetadataWorks, a UK based startup, aims to support organisations to manage and make better use of their data assets through their data catalogue product. MetadataWorks has focused on the complex domain of clinical data, working with health organisations to catalogue data assets, develop and promote data standards, and improve interoperability.

Machine Learning con JavaScript: El futuro o pesadilla?

por Javier Luraschi

JavaScript es el lenguaje de programación más popular de acuerdo a la encuesta de StackOverflow. Obviamente JavaScript mantiene las mejores herramientas y librerías para desarrollo web y varios componentes populares para backend con NodeJS; sin embargo, hace sentido usar JavaScript para Ciencia de Datos, Machine Learning y Deep Learning?

Planeación urbana basada en datos

por Roberto Ponce López

Históricamente, la planeación urbana en México ha sido orientada a estudios de caso y enfocada el diseño urbano desde la arquitectura. En los últimos 20 años, el campo de los estudios urbanos ha atestiguado el surgimiento de iniciativas llamadas Ciencia de Ciudades, Sistemas de Información Urbanos o Informática Urbana. Estas iniciativas son un esfuerzo por utilizar datos microscópicos y simulaciones para construir escenarios sobre la ciudad y apoyar la toma de decisión de políticas públicas de uso de suelo y transporte.

Workshop: Entrenamiento, Tuning e Implementación de modelos de aprendizaje automático externos en SageMaker de AWS

por Juana Martinez

En este taller aprenderas lo necesario para que tu modelo no fracase al pasarlo de un ambiente de entrenamiento y prueba a producción, a la lucha real del día a día. Hoy en día las plataformas nos dan grandes facilidades para utilizar modelos de aprendizaje automatico en un proyecto, dichos modelos ya existen en los determinados ambientes de desarrollo y son faciles de consumir, pero es sumamente importante saber como utilizar estas herramientas de una manera mas amplia y abierta para entrenar modelos de creación propia, así como sus canales de alimentación y consumo.

2021-03-23T16:00:00.000Z

API Congreso: La unión de la tecnología con la política mexicana

por Selma Ortega

En México, las cámaras de Diputados y Senadores tienen la obligación de subir sus actividades; sin embargo, esos datos no están del todo ordenados como nos gustarían, por lo que tanto a los expertos como a los ciudadanos que se quieren informar les toma mucho tiempo buscar lo que requieren. API Congreso es un proyecto en el que se reúne la información más relevante dentro de las cámaras de una manera más sencilla que permita el análisis de datos, hacer consultas de un tema en particular y acceder a datos históricos.

Cuantificación de Incertidumbre en Modelos Climáticos, por ITAM

por Alfredo Garbuno Íñigo

La calibración de y cuantificación de incertidumbre en modelos complejos es un reto que presenta diversas áreas de oportunidad. Se puede formular como un problema en el cual los datos satelitales observados se contrastan con simulaciones del modelo en cuestión. El propósito es calibrar, y a su vez cuantificar la incertidumbre, de parámetros en sistemas caóticos. En particular, nuestro trabajo en simulación de procesos atmosféricos a nivel global, nos limita a un presupuesto computacional muy limitado.

Repensando la Optimización

por Miguel Escalante

En abril del 2020, el gobierno del municipio de San Pedro Garza, organizó una serie de brigadas para llevar recursos a gente que estaba identificada con COVID-19. Las rutas inicialmente estaban hechas con el orden que daba el excel que les daba la plataforma, sobra decir que esto fue poco eficiente. Nos juntamos con ellos para poder plantear el problema y encontrar una mejor solución a la que tenían en ese momento.

Machine Learning Models Eavesdropping on other Models for Better Learning

por Santosh Umesh Shet

Biologically speaking, we know different people interpret or understand certain concepts/topic differently or just that one person understands a concepts better than other. In such cases, we refer to other persons for better understanding. Different machine learning models also show varying accuracies for same task and dataset, which is indicative of how well a model had learned the features. One would argue that this is due to underlying architecture. Yes, this also means certain architectures are able to learn certain features better than the other similar to us, but how do we overcome this challenge?

Workshop: Transforma tus Datos en Acciones con Google Maps Platform, por BSI

por Gabriel Balderas & Martha Villanueva

La mayor parte de los datos en el mundo tienen un componente de ubicación: Desde transacciones bancarias, entregas de paquetes, compras o comida, dispositivos y sensores conectados a sistemas IoT, vehículos y otros activos, hasta personas y servicios. Todos los elementos con los que interactuamos están continuamente determinados por su posición geográfica, en un momento determinado. La Localización, hoy más que nunca, tiene un rol crítico en las operaciones y proceso de una amplia gama de negocios y es un factor fundamental para potenciar el desempeño de un negocio.

Machine Learning para la detección de anomalías y más, por Elastic

por Melissa Alvarez

Como Elastic esta utilizando aprendizaje automático supervisado y no supervisado para operacionalizar y simplificar la ciencia de datos

Anxiety, Stress, and Sadness: The Consequences of COVID-19 on Mental Health in Latin America

por Abel Rodríguez Tirado

We examine whether the COVID-19 stay-at-home order affected mental health throughout Latin America. Using Google Trends data and an event-study design, we explore the effect of country-specific stay-at-home orders on mental health searches, including the following words: depression, anxiety, sadness, insomnia, stress, and suicide. Our results show three main patterns. First, searches for insomnia peaked but then declined. Second, searches for stress, anxiety, and sadness increased, but surprisingly, there was no change in depression.

From development to production in a snap with Ploomber

por Eduardo Blancas

Interactive development tools such as Jupyter are prevalent among data scientists because they provide an environment to perform data transformations and get immediate visual feedback. However, when deploying a project, it must be refactored using a production-friendly environment like Airflow or Argo; this causes data scientists to move code back and forth between their notebooks and these production tools. Furthermore, data scientists have to spend time learning an unfamiliar framework and writing pipeline code, which severely delays the deployment process.

Workshop: Scaling LightGBM with Python and Dask

por James Lamb

In this workshop, attendees will get an introduction to Dask, a framework for distributed computing in Python. After this overview, attendees will get hands-on experience configuring a Dask cluster, creating distributed datasets with Dask collections, and performing distributed training evaluation of LightGBM models. The workshop will cover related topics along the way, including how to optimize Dask cluster settings for machine learning training, how to diagnose issues that arise during training, and how to choose good ranges for key hyperparameters.

2021-03-24T16:00:00.000Z

La necesidad de una recopilación de datos de calidad en violencia de género

por Zinnya del Villar

La necesidad de una mejor recopilación de datos relacionados con la violencia de género ha sido reconocida a nivel internacional por las Naciones Unidas en su compromiso de erradicar la violencia contra las mujeres, en donde LATAM muestra las peores cifras y México es uno de los países más peligros para las mujeres. Los datos sobre la violencia contra las mujeres pueden obtenerse de diferentes fuentes, incluso a través de encuestas realizadas por las Oficinas Nacionales de Estadística, sin embargo, éstas sólo captan una parte de la prevalencia e incidencia reales de la violencia, lo que se traduce en sistemas inteligentes como datos de entrada de baja calidad debido al sesgo y a la muestra no representativa de la población.

De 0 a 360 grados. Tus clientes en un grafo, por VinkOS

por Luis Eduardo Almazán Sifuentes

Entender al cliente, conocer sus demandas, necesidades, perfiles y comportamientos resulta clave para poder generar mejores estrategias que ayuden a alcanzar una alta calidad de servicio. Esta típica problemática en cualquier negocio se puede abordar desde un moderno enfoque: mediante un esquema de grafos, obtener la vista 360 del cliente. El entendimiento de la estructura de Neo4j, basada en grafos, nos permitirá analizar un conjunto de datos de distintos clientes para poder mapear sus comportamientos e interacciones y, de este modo, ir más allá de la información almacenada en una base, hasta un conocimiento más profundo del cliente.

Plataforma analítica: Una inversión, Dos rendimientos

por Antonio Padrós

Sólo por armar la plataforma analítica se mejora el desempeño de operaciones, pero en un segundo momento, el análisis de los resultados abre una fuente de mejoras y soporte a estrategias. La apertura al cambio, la conciliación de directrices y la interpretación de los modelos hace de los jóvenes analistas un tejido conjuntivo para los directores de la empresa basada en evidencias.

Governance en la ciencia de datos

por Aldo Valadez

En esta plática exploro sobre el como empezar a meter gobierno (governance) en la ciencia de datos revisando los siguientes puntos ¿Centralizar o descentralizar? ¿Equipos multidisciplinarios o verticales? Qué conviene democratizar y que conviene centralizar Que tipo de gobierno aplicar y en que puntos del proceso

IA: Cómo pudimos pronosticar el precio del jamón de puerco y ayudamos a una compañía líder en la industria a ahorrar millones de dólares, por Derevo

por Jorge Figueroa

(No todo es jamón de puerco, esta historia aplica también en tu industria…) Los métodos tradicionales de analítica dan resultados solo para ciertas preguntas, pero no son suficientes para las necesidades de las compañías hoy en día, en donde hay una competencia diaria, y el que encuentre mejor valor en los datos es el que tiene la ventaja competitiva. En estos días, si queremos realmente tener Insights que causen impacto en los negocios tenemos que incursionar a la inteligencia artificial, adquiriendo un proceso que vaya del diagnóstico a la prescripción de los datos; tomando en cuenta el impacto de las variables externas, robotización de los procesos y aprovechamiento de todos los datos que nos podemos encontrar en la nube; incursionando a procesos de Deep learning, redes neuronales y modelos probabilísticos que posteriormente serán aprovechados en Dashboards de analítica orientados a los tomadores de decisiones, dándoles una gran experiencia de usuario.

Ética: un límite y potenciador de la IA

por Bárbara Gaspar

El mundo entero esta frente a una condición de emergencia compartida, los datos ahora no sólo acumulan los millones de muertes e infectados por COVID-19, también engloban quienes están en condiciones de pobreza, marginación, quienes están en riesgo de contagio, los registros de movimientos, las pérdidas económicas, y el amplio cúmulo de predicciones sobre el contexto que tenemos por delante, y que hemos decidido llamarle “nueva normalidad”. La inteligencia artificial (en adelante IA) y la pandemia han tenido el poder de cambiar el mundo, lo que representa una amplia cantidad de variables, desde su presencia casi inadvertida hasta la extrema amplitud de sus consecuencias sociales, tecnológicas, económicas y sanitarias.

Detección de riesgos en pacientes de COVID-19

por Roberto Bárcenas Curtis

En este trabajo se realiza un análisis de datos abiertos del Sistema de Vigilancia Epidemiológica de Enfermedad Respiratoria Viral (SISVER) provenientes de pacientes de COVID-19 en México. El objetivo es la búsqueda de factores de riesgo que conducen a desenlaces de gravedad, y para ello se consideran algunos algoritmos de Machine Learning en un contexto de clasificación multiclase, con el fin de caracterizar la evolución de la enfermedad.

2021-03-25T16:00:00.000Z

Using Call Detail Records and Sentiment Analysis to Analyze the Development Challenges Faced by Syrian Refugees and Host Communities in Lebanon

por Roaa Al Feel

Since the beginning of the Syrian civil war in 2011, over 5 million Syrians have fled Syria, seeking refuge in different countries, including Lebanon. With more than one million Syrian refugees, Lebanon has the highest per capita proportion of Syrian refugees in the world. This places an enormous pressure on the country’s essential services for both refugee and host communities, which in turn has further worsened conditions and increased vulnerabilities and risks of tension.

Mythbusters: las herramientas de BI sustituyen la virtualización de datos, por denodo

por Iván López

Puede estar pensando: si puedo tener consultas de múltiples fuentes y definir un modelo lógico en mi herramienta de reporteo, ¿por qué necesitaría un software de virtualización de datos? Las herramientas de reporte, sin duda importantes y necesarias, se centran en la visualización de los datos y su presentación al usuario de la empresa. La virtualización de datos es una capa de acceso a los datos gobernada, diseñada para conectar con todos los datos de la empresa y proporcionarles transparencia.

Decision Making Under Uncertainty and Complexity

por Edmundo Molina Pérez

The City of Monterrey in Nuevo Leon is rapidly increasing its demand for potable water due to its growing industrial activity and population. It is widely believed that the expansion of the city´s water infrastructure is a key measure needed to support future water demand. However, environmental concerns of different projects and more importantly climate change and water demand uncertainty have increased the complexity of this decision. This research describes an integrated computational framework that has been developed for supporting the State of Nuevo Leon’s water infrastructure decisions.

Workshop: Análisis de Imágenes satelitales con Google Earth Engine

por Enrique Bonilla

Las herramientas y algoritmos para analizar imágenes satelitales avanzan cada día más. En la actualidad, el uso de cómputo paralelo, MapReduce, y APIs como Keras, nos permite estudiar y aplicar algoritmos a imágenes satelitales como nunca antes habíamos soñado. Además, el reciente desarrollo e inversión en distintos satélites y varias fuentes de información de percepción remota nos da la oportunidad de explorar nuevos e interesantes datos. En este taller, aprenderemos como usar Google Earth Engine para realizar algunos de estos novedosos análisis y descubrir algunos de los distintos tipos de información que se pueden estudiar con ayuda de imágenes satelitales.

Programación Genética para Ingeniería de Variables: Aplicación en Sistemas de Trading con Criptomonedas

por Francisco Muñoz

Antes de pensar en modelos predictivos, hay que pensar en formar las variables que se usarán como entrada en tales modelos, y no cuidar esto tiene sus implicaciones, ¿Conoces la frase “Garbage in, garbage out”?. Por otro lado, el boom del machine learning te expone al uso de modelos complejos de explicar/calibrar/mantener, y todo esto, para el caso de series de tiempo financieras que es todo un reto. La importancia de esta charla se centra en darte una herramienta para responderte lo siguiente:

Redes neuronales para la predicción de eventos en la banca digital

por Jorge Carranza

El uso de las redes neuronales ha dado lugar a realizar diversas predicciones, uno de los tantos casos de usos, es ayudar a los usuarios de servicios financieros y a clientes a hacer más rápido y fácil sus operaciones mediante la predicción de las operaciones que frecuentemente realizan, como los pagos fijos y de servicios.

Desarrollo de aplicaciones hospitalarias

por José Magaña

Experiencias acerca del desarrollo de aplicaciones medicas y hospitalarias, en este entorno de pandemia, asi como las problematicas presupuestales en México, como lidiar con las nuevas estructuras monoliticas de la secretaria de salud (SINBA) y lo que podemos hacer con nuevos desarrollos en el sector salud en México.

Gentle introduction to Data Science by understanding the impact of financial investment and other factors on student academic outcomes

por Angel Alvarado & Betzabe Villarreal

Betza and Angel will walk you through a step-by-step process of how to apply data analysis, data science and data engineering using public datasets to understand the impact of financial investment and other factors on students' academic outcomes for the state of California in 2016. We’ll go over the ins and outs of this study and will touch in each of these phases: Data Analysis Science process Data gathering Cleaning best practices EDA - Basic and Extensive Data Analysis Statistical evaluation - p- value, pairwise, xi squared Predictive Modeling - Is linear regression or Multiple regression valid for this data?

Workshop: Pronósticos con Series de Tiempo en R

por Jorge Nájera

Lo que se busca en el siguiente Workshop es que el interesado conozca las bases y características que se encuentran detrás de los modelos autorregresivos (usando la Metodología Box-Jenkins), y como pueden ser utilizados para realizar pronósticos eficientes sobre series temporales. Para este fin, nos introduciremos al uso del lenguaje de programación R, y su IDE Rstudio.

2021-03-26T16:00:00.000Z

Justicia Abierta

por Yasmín Belen Quiroga

El objetivo de esta charla es contar un caso de éxito en la apertura de datos dentro del Poder Judicial. El juzgado penal contravencional y de faltas 10 de la Ciudad Autónoma de Buenos Aires (Argentina), del cual formó parte desde el inicio de esta experiencia, implementa hace 5 años principios de gobierno abierto en la justicia, como ser innovación, participación ciudadana, rendición de cuentas, uso de TIC’s, entre otras. A través de la red social del Juzgado publicamos, por ejemplo, todas las resoluciones (sentencias), la agenda de audiencias semanal, los CV’s de las personas que integramos el juzgado.

Almacenamiento y Procesamiento de datos con Azure presentado por Microsoft

por Axayacatl Valenzuela

Una de las decisiones más importantes cuando trabajamos con Big Data es saber donde y como almacenamos nuestros datos. Esta decisión tiene un gran impacto en el desempeño de nuestra solución. En está charla platicaremos de algunas de las mejores prácticas para el almacenamiento y como lograrlo en Azure.

Utilizar conocimientos de dispositivos móviles para el análisis del comportamiento espacio temporal de visitantes en una región

por Virgilio Santiago Benitez

La presente investigación parte de un análisis general sobre estrategias basadas en la ubicación, donde el usuario se posicione como el centro de interés principal. Las expectativas de los clientes continúan cambiando constantemente, por lo que se requiere una respuesta sofisticada si realmente se busca impactar su experiencia a través de su comportamiento en web, tienda física o dispositivo móvil. Actualmente los sistemas de gestión de datos en los últimos años se han acelerado con un enfoque de servicios basados en ubicación (LBS).

Continuous Delivery for Machine Learning

por Leticia Cruz

Las aplicaciones de Machine Learning han adquirido un gran auge y cada vez son más comunes. Sin embargo, el proceso de desarrollo, liberación y mantenimiento continuo es más complejo comparado al desarrollo de software tradicional, como una aplicación web o de móviles.

Workshop: Onboarding en un departamento de datos

por Omar Santa Cruz

Al finalizar el proceso de contratación dentro del departamento de datos de Anzen Digital se inicia la incorporación del nuevo recluta a nuestra cultura, negocio, datos, procesos y tecnología. Sin embargo, el proceso de onboarding no inicia en este punto, el onbording en Anzen inicia desde el proceso de las entrevistas, y la primera parte de esté finaliza cuando el nuevo colega a construido una sólida relación con sus colegas de equipo, líderes y demás integrantes del círculo de trabajo.