fbpx Algoritmos Inteligentes | SG Buzz

Algoritmos Inteligentes

Publicado en

20 años atrás. En 1995 se embarcaron 60 millones de computadoras en todo el mundo. Internet se desarrollaba en paralelo desde fines de los sesenta y su impacto ya era claro. En 1999 salesforce.com se instituyó como una alternativa del cómputo cliente-servidor basado en Internet o “Software-as-a-service”. A fines del 2004 el término “Web 2.0” se usó para enfatizar el contenido creado por usuario y mejoras a la usabilidad e interoperabilidad de la red. Desde ese entonces se especulaba de un Internet que sería primariamente procesado por máquinas.

Hace una década. Fue en agosto 25 del 2006 que Amazon anunció el primer beta del cómputo elástico en Internet. Por primera vez fue posible obtener recursos de cómputo de forma abstracta equivalentes a un procesador Intel Xeon 1.7GHz del 2006, y así nació el cómputo en la nube. Hace una década también nació Hadoop, para el procesamiento de cada vez mayores volúmenes de datos. En mi opinión, el libro “The Big Switch” de Nicholas G. Carr [1], explica con claridad la actual revolución de cómputo en la nube.

Fines del 2015. Desde hace dos años las tabletas y celulares han mantenido en declive su participación contra computadoras personales embarcadas a nivel mundial. La migración a la nube se está acelerando, cada vez son menos los que piensan que nunca abandonaran los centros de datos propios, aún en las industrias más reguladas. Las tecnologías relacionadas a la nube y movilidad —como seguridad, contenedores y analítica— continuarán con gran demanda (leer “50 enterprise startups to bet your careers on in 2016” [2]).

El internet inteligente. Recientemente he descrito en esta columna el Internet de las cosas. Resulta claro que el destino requiere de mejores decisiones tomadas por las máquinas mismas. El verdadero cambio que puedo ver en las propiedades mayores de internet así como en los círculos de emprendimiento es una “fiebre de oro” por el aprendizaje automatizado (machine learning). El último trimestre del 2015 se caracterizó por una variedad de tecnologías de código abiertas para predicción. Pedro Domingos ha expuesto en “The Master Algorithm” [3] cinco distintas “tribus” con aproximaciones distintas a la nueva inteligencia artificial:

Tribu

Orígenes

Algoritmo principal

Simbolistas

Lógica, Filosofía

Deducción inversa

Conexionistas

Neurociencia

Retropropagación

Evolucionarios

Evolución biológica

Programación genética

Bayesianos

Estadísticas

Inferencia probabilística

Análogos

Psicología

Máquinas basadas en un Kernel

Independientemente de que pueda existir un solo algoritmo para que una máquina pueda aprender cualquier cosa, presentando una gran cantidad de “ejemplos”, los fundamentos relacionados y la reciente disponibilidad de la tecnología permite integrarla hasta en las más sencilla aplicación. En décadas pasadas nos hemos hechos dependientes del software, pero en la siguiente etapa dependeremos de un nivel de automatización sin precedente: algoritmos que aprenden y máquinas que se programan a sí mismas, que mejoran gradualmente, que conocen mejor al usuario que otros humanos.

Solo recordemos que la inteligencia de máquina no tiene por qué comportarse como la inteligencia humana.

Referencias

  1. N. Carr. “The Big Switch: Rewiring the world, from Edison to Google”. W. W. Norton & Company, 2008. http://swgu.ru/r0
  2. J. Bort, E. Kim & M. Weinberger. “50 enterprise startups to bet your career on in 2016”. Business Insider, Nov 2015. http://swgu.ru/r1
  3. P. Domingos. “The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World”. Basic Books, 2015. http://swgu.ru/r2
  4. D. Hofstadter. “Gödel, Escher, Bach: An Eternal Golden Braid”. Basic Books, 1979. http://swgu.ru/r3
Bio

Luis Daniel Soto (@luisdans / @luisdanielsoto) trabaja en Amazon Web Services, enfocado en el desarrollo global de negocios para  Big Data e Inteligencia de negocios. sotols@amazon.com