Mientras que las redes neuronales han sido muy exitosas en problemas como visión computacional o NLP, con todo y que tienen el problema de ser cajas negras sin posibilidad de interpretación sobre cómo llegaron a tal o cual conclusión, existen otros donde no podemos darnos el lujo de esta opacidad; por ejemplo, aquellos que inciden directamente en los bolsillos de la gente.
En esta sesión exploramos herramientas y librerías que habilitan que un modelo sea interpretable, y tratamos la teoría sobre model fairness, que nos lleva un paso hacia un machine learning más ético.