febrero 05, 2013

Las placas están empezando a moverse (de nuevo)

By Stefan Schaffer 

Cuando decidimos fundar GLOOOBAL en el verano de 2011 para enfocarnos 100% en SAP HANA, estábamos convencidos de que HANA iba a revolucionar el mundo de la informática empresarial. Hoy, casi un año y medio después, comprendemos mucho mejor por qué eso realmente va a cumplirse, y cuán profundos serán los cambios.

 

SAP HANA aprovecha la Ley de Moore

Quienes leen este blog probablemente saben que HANA puede acelerar el escaneo y la lectura de grandes cantidades de datos por factores de varios miles. Las razones de esto son múltiples. Una de ellas (y la que se omite con mayor frecuencia, dado que la comunicación de SAP está más enfocada en el aspecto de negocios últimamente) reside en lo profundo de la arquitectura de SAP HANA: fue diseñada cuidadosamente, teniendo en cuenta un hardware con nuevas capacidades, donde el cuello de botella no es la frecuencia del procesador, sino el tiempo que se tarda en enviar datos a los núcleos de la CPU.


Y esto depende en gran medida de la cercanía física entre la unidad de almacenamiento y el procesador, pues los electrones no pueden viajar a una velocidad mayor que la velocidad de la luz (sí, ya estamos alcanzando los límites de la física). Esto implica que para hacer buen uso del poder de la CPU hay que ser muy hábil y aprovechar los diferentes niveles de cache cerca de la CPU, ya que tienen una capacidad muy limitada. Ésta es una diferencia clave de SAP HANA, si la comparamos con otras bases de datos, incluso aquellas que también corren completamente en memoria. Hay otras diferencias, por supuesto, pero ésta es probablemente la que resulta más difícil de igualar entre los competidores de SAP. HANA está construida para una generación de hardware que se está volviendo común, y esta arquitectura se beneficiará mucho de la Ley de Moore a medida que pase el tiempo. Aquellos de ustedes que también hayan sido parte de la experiencia de usar R/3 al principio, quizá tengan un déjà vu, ya que R/3 surgió justo cuando estaban apareciendo servidores Unix poderosos.

 

Necesitamos arquitecturas para aplicaciones

La aceleración que brinda SAP HANA va más allá de 'hacer que todo ande más rápido'. Hace posible construir aplicaciones que no eran posibles antes (o al menos no lo eran a un costo razonable), porque permite incluir cálculos complejos sobre conjuntos de datos grandes en actividades de tiempo real. Esto a su vez permite hacer aplicaciones mucho más pro-activas que están siempre unos pasos más adelante que el usuario, y que pueden proponer el paso siguiente a partir de un gran cantidad de información almacenada en nuestras bases de datos hoy (por favor, ver el post A New ERP). Hacer esto no será gratis, porque la arquitectura y el diseño de las aplicaciones (además de la interfaz de usuario) tendrán que cambiar para poder aprovechar las nuevas posibilidades. Y como siempre, hacerlo bien y lograr que el cambio sea adoptado a gran escala va a llevar tiempo; pero a la larga, las aplicaciones que no estén optimizadas o al menos construidas según el nuevo paradigma van a convertirse en aplicaciones obsoletas.

 

La 'Próxima Ola' no está muy lejos

Si bien HANA puede acelerar las operaciones de lectura sobre grandes cantidades de datos, la escritura todavía tiene restricciones causadas por la necesidad de persistir la información: una operación de escritura en SAP HANA sólo se puede comitear una vez que se haya completado la escritura en el archivo de log en almacenamiento no volátil, de manera tal que los datos sigan siendo consistentes si se corta la electricidad. En esencia, esto limita el rendimiento de escritura a lo que un sistema tradicional pueda hacer hoy en día. Sin embargo, esto cambiará en un futuro no muy lejano, a medida que la disponibilidad de memoria principal no volátil vaya apareciendo en los próximos años (ver por ejemplo este artículo de ZDNet). Al principio esto será bastante caro, pero los precios irán bajando cuando la segunda generación aparezca, alrededor de un año o año y medio más tarde.
Con esto, los desarrolladores de aplicaciones dispondrán de bases de datos que serán miles de veces más rápidas que las bases actuales al leer y escribir grandes cantidades de datos. La arquitectura de las aplicaciones actuales, ya sea local o en la nube, se volverá realmente anticuada, ya que habrá perdido la posibilidad de aprovechar los nuevos avances. Cada vez que hay un movimiento tectónico de este tipo en el ámbito tecnológico, en general le sigue un sacudón de todo el mercado, con grandes ganadores y perdedores inesperados, especialmente en industrias que se consideran maduras.
Hoy en día estamos viendo la inevitable transición desde soluciones tradicionales locales hacia propuestas basadas en la nube (otro movimiento tectónico) y muchos ya han nominado a sus ganadores. Va a ser interesante ver cómo la tecnología en memoria puede revolucionar esta carrera otra vez. Yo no subestimaría a SAP (dueños de HANA), porque ya están siguiendo ese camino de manera muy decisiva.

Saludos
Stefan

No hay comentarios:

Publicar un comentario