¿Por qué 2018 será el año en que las aplicaciones van al límite?

Si está ejecutando una empresa de software hoy, es casi una conclusión inevitable que la mayoría o todas sus aplicaciones se ejecutarán en la nube. Probablemente Amazon o Google. Es difícil imaginar que este no siempre sea el caso, pero todavía hay algunos adoptantes tardíos que migran sus propios centros de datos físicos a centros administrados. Y, como con todas las tendencias en tecnología, esto también pasará. Justo cuando se estaba sintiendo cómodo con los contenedores y el autoescalado, emerge una nueva arquitectura que hace que el péndulo vuelva a un mundo verdaderamente distribuido.

¿Qué pasa con la nube?

Un automóvil autónomo típico genera hasta 100MB de datos por segundo a partir de una combinación de cámaras, LIDAR, acelerómetros y computadoras de a bordo. Esa información debe procesarse casi al instante para mantener el automóvil en la carretera. Con tanta información para filtrar, la generación actual de redes celulares no puede mantenerse al día. Para cuando los datos lleguen a la nube, será demasiado tarde. En cambio, los datos deben procesarse lo más cerca posible de los sensores, directamente en el borde de las redes, en los propios automóviles.

La mayoría de nosotros no construimos o viajamos en autos sin conductor (todavía), pero hay muchas posibilidades de que ya estemos interactuando con la informática de borde todos los días. Las redes neuronales en altavoces inteligentes en casi  40 millones de hogares estadounidenses están escuchando palabras como “Alexa”, “Siri” o “Google” y, según Statista, se escanean 3 mil millones de Snapchats para rostros cada día con el fin de agregar los filtros faciales adictivos . Para fin de año, el 20 por ciento de los teléfonos inteligentes a nivel mundial tendrán capacidades de aprendizaje automático aceleradas por hardware.

¿Cómo llegamos aquí?

Todas estas aplicaciones y dispositivos son posibles gracias a dos tendencias principales: avances en algoritmos de aprendizaje profundo que ayudan a las computadoras a ver, escuchar y comprender, y la proliferación de procesadores especializados como GPU y TPU que pueden ejecutar estos algoritmos de manera eficiente, incluso en entornos móviles.

Las redes neuronales y el aprendizaje profundo no son nuevos. De hecho, las primeras redes neuronales artificiales se crearon en la década de 1950, y desde entonces se han producido falsos comienzos. Esta vez, sin embargo, la abundancia de datos de entrenamiento etiquetados y la potencia de cálculo permitieron entrenar estos modelos grandes. Aunque la investigación en IA aún avanza a un ritmo vertiginoso, campos como la visión artificial están comenzando a madurar. Los desarrolladores pueden elegir entre una variedad de arquitecturas de modelos estandarizados, conjuntos de datos de capacitación disponibles al público y herramientas. Ya no necesitas un doctorado solo para comenzar. La tecnología está siendo democratizada.

Las herramientas y el hardware están mejorando tan rápido que es difícil mantener el ritmo.

El hardware se está poniendo al día, rápido. Los algoritmos de aprendizaje automático, como las redes neuronales, son en realidad secuencias largas de multiplicaciones de matrices. Los procesadores especializados como GPU y unidades de procesamiento neuronal más nuevas como las del chip Bionic A11 de Apple y la Unidad de Procesamiento Tensor (TPU) de Google están optimizadas para exactamente estas operaciones matemáticas, ofreciendo aceleraciones de 10-100 veces sobre CPU tradicionales mientras usan menos energía en general. A medida que los principales fabricantes de chips lanzan aceleradores de aprendizaje automático aptos para dispositivos móviles, todos los dispositivos pronto tendrán la capacidad de ejecutar los últimos modelos de AI.

El extremo = nueva oportunidad

Big data, data science, machine learning y ahora deep learning han ido abriéndose paso lentamente en productos y compañías durante la última década. La mayoría de las veces, esto sucedía detrás de escena, en la nube. Los almacenes de datos y las tuberías de análisis procesan registros en masa. Los resultados se hacen accesibles para los usuarios finales a través de API y consultas de bases de datos. Eso no va a desaparecer, pero la ventaja presenta una nueva oportunidad para usar las capacidades predictivas de los modelos de aprendizaje automático más rápidamente.

Ahora, los algoritmos se mueven a los datos. La información se procesa en tiempo real, tan pronto como sea capturada por el sensor, y los resultados están disponibles de inmediato. En este mundo libre de latencia, son posibles experiencias de usuario completamente nuevas. La pantalla de su teléfono se convierte en un portal hacia un mundo de realidad aumentada. Los productos se pueden personalizar para un solo usuario, mientras que los datos privados nunca abandonan el dispositivo. Las aplicaciones se vuelven ecológicas y sin fricciones, anticipando preguntas y respondiéndolas antes de preguntar.

No hace falta un doctorado

Cuando se hace bien, las experiencias hechas con IA y computación de borde se sienten como magia, pero construirlas es increíblemente complejo. Existe una división entre las pilas de tecnología usadas para entrenar y desplegar modelos de aprendizaje automático en la nube y las que se usan para construir aplicaciones para dispositivos de borde, como teléfonos inteligentes y IoT. Las redes neuronales pueden reemplazar miles de líneas de código de procedimiento, pero fallan en formas silenciosas e inesperadas y deben probarse de manera diferente. Problemas de rendimiento que pueden resolverse simplemente agregando más cómputo o memoria desde una llamada en la nube casi infinita para optimización especializada cuando se producen en dispositivos de borde que no controlamos. Incluso los lenguajes de programación preferidos por la nube son diferentes de aquellos que ejecutan aplicaciones en dispositivos móviles.

Esto está empezando a cambiar. Las herramientas y el hardware están mejorando tan rápido que es difícil mantener el ritmo. Los pesos pesados ​​como Apple y Google han convertido los marcos de aprendizaje de máquinas móviles (Core ML y TensorFlow Lite, respectivamente) en centros de atención de sus últimas ofertas para desarrolladores. Se están agregando más opciones de exportación y una mejor interoperabilidad a herramientas como SageMaker de AWS, Azure’s ML Studio y Watson Studio de IBM semanalmente.

Es hora de comenzar a pensar en formas en que puede mejorar sus aplicaciones aprovechando el aprendizaje automático y la informática de punta. Ya no se necesita un doctorado en IA o años de experiencia para comenzar, y si no actúas rápido, corres el riesgo de quedarte atrás.
FUENTE: techcrunch.com

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *