Tiempo de lectura aprox: 2 minutos, 9 segundos
Un prototipo presentado por Hewlett Packard Enterprise significa el aporte más importante para el cómputo basado en memoria con una megacomputadora escalable a partir de 160 terabytes hasta ser capaz de trabajar simultáneamente con las historias clínicas de todos los habitantes del planeta, con cada porción de datos de Facebook, con todos los viajes de los vehículos autónomos de Google y con todos los conjuntos de datos de la exploración espacial al mismo tiempo.
Esta inmensa capacidad es el resultado más reciente del proyecto de investigación y desarrollo The Machine que está enfocado a ofrecer un nuevo paradigma llamado Cómputo Basado en Memoria (Memory-Driven Computing), una arquitectura diseñada específicamente para la era del Big Data.
En la presentación de la computadora, Meg Whitman, CEO de HPE dijo que “los secretos de la próxima innovación científica revolucionaria capaz de cambiar la industria o la tecnología que sea capaz de alterar la forma de vivir se esconden, detrás de las enormes montañas de datos que creamos todos los días”. Para hacer realidad esa revolución, no podemos confiar en las tecnologías del pasado, necesitamos una computadora creada para la era del Big Data.
El prototipo presentado tiene 160 terabytes (TB) de memoria, lo que lo hace capaz de trabajar simultáneamente con cinco veces los datos que contienen todos los libros de la Biblioteca del Congreso de EU, lo que equivale a aproximadamente 160 millones de libros. Nunca hasta ahora fue posible almacenar y manipular conjuntos de datos completos de ese tamaño en un sistema de memoria única, y esto es solo una pequeña muestra del potencial del Cómputo Basado en Memoria.
Consecuencias de escalabilidad y para la sociedad
Basado en el prototipo actual, HPE espera que la arquitectura pueda escalar con facilidad a un sistema de memoria única a escala de exabyte y, más allá de eso, a un conjunto de memoria casi ilimitado de 4,096 yottabytes. Para tener una idea, eso equivale a 250,000 veces todo el universo digital completo actual.
“Creemos que el Cómputo Basado en Memoria es la solución para impulsar la industria tecnológica de modo tal que posibilite avances en todos los aspectos de la sociedad”, dijo Mark Potter, Director de Tecnología de HPE y Director de Hewlett Packard Labs.
“La arquitectura que presentamos puede aplicarse a todas las categorías informáticas, desde dispositivos periféricos inteligentes a supercomputadoras”, agregó Potter.
El Cómputo Basado en Memoria pone a la memoria, y no al procesador, en el centro de la arquitectura del cómputo. Al eliminar las ineficiencias relacionadas con la forma en que la memoria, el almacenamiento y los procesadores interactúan en los sistemas tradicionales actuales, el Cómputo Basado en Memoria reduce el tiempo necesario para procesar problemas complejos de días a horas, de horas a minutos y de minutos a segundos, para proporcionar inteligencia en tiempo real.
Especificaciones técnicas
El nuevo prototipo se apoya en logros del programa de investigación The Machine, que incluyen: 160 TB de memoria compartida dispersos en 40 nodos físicos, interconectados usando un protocolo de tejido de alto rendimiento. El sistema operativo (SO) optimizado está basado en Linux que ejecuta en ThunderX2, el SoC (System on a Chip) de punta de segunda generación optimizado para carga de trabajo de doble socket ARMv8-A, de Cavium. Cuenta con enlaces de comunicación fotónicos/ópticos, que incluyen el nuevo módulo de fotónica X1, que están en línea y operativos. Además dispone de nuevas herramientas de programación de software diseñadas para aprovechar las ventajas de la memoria persistente abundante.
“Las innovaciones revolucionarias de Cómputo Basado en Memoria de HPE posibilitarán un nuevo paradigma de cómputo para una variedad de aplicaciones, incluyendo la próxima generación de centros de datos, cómputo en la nube y de alto rendimiento”, afirmó Sye Ali, presidente y CEO de Cavium, que colabora con HPE en el programa The Machine.