Androide

Intel Eyes Computación en la nube con nuevo hardware, el software

¿Qué es y cómo funciona la COMPUTACIÓN CUÁNTICA?

¿Qué es y cómo funciona la COMPUTACIÓN CUÁNTICA?
Anonim

Intel está impulsando la computación en la nube con los próximos cambios en su línea de servidores Nehalem destinados a grandes despliegues de centros de datos.

Como parte de esa iniciativa, la compañía describió las actualizaciones de hardware y software que dijo esta semana dará lugar a ahorros de energía y ofrecerá la escalabilidad necesaria para los servicios de computación en la nube.

Intel espera proporcionar tecnología para servidores de rango bajo y mediano que puedan compartir cargas de trabajo de manera efectiva si la demanda de una aplicación en la nube aumenta, dijo Jason Waxman, gerente general de computación de alta densidad en Intel. Las implementaciones de servidores dependerán de los recursos que necesite cada nube, y algunas requieren conexiones de red más rápidas o más memoria. Por ejemplo, las necesidades de hardware de un servicio de multimedia intensivo como Google Earth diferirían de las de un servicio de correo electrónico como Gmail, dijo Waxman.

Además de proporcionar servidores que entreguen servicios en la nube eficientes, Intel quiere que los servidores sean poder eficiente. Waxman dijo que el consumo de energía y refrigeración representa hasta el 23 por ciento de las implementaciones de servidores, por lo que la compañía está construyendo motherboards que podrían ayudar a enfriar los sistemas eficientemente mientras reducen los costos de energía. Intel está desarrollando una nueva placa base diseñada para servidores informática, que reduce la potencia consumida a 85 vatios en inactivo en comparación con 115 vatios para placas estándar basadas en Nehalem. Una reducción de 30 vatios por servidor podría ahorrar hasta 8 millones de dólares en tres años en una implementación de 50,000 servidores, dijo Intel.

Las próximas juntas basadas en Nehalem usarán los procesadores Xeon que se lanzarán más adelante este trimestre. Intel proporcionará las motherboards a través de socios como Dell, Hewlett-Packard e IBM.

Las placas base específicas pueden ayudar a enfriar los sistemas de manera eficiente, lo que podría reducir los costos de energía. Algunas de las motherboards rediseñadas eliminan las ranuras para desalentar el uso de componentes y periféricos que consumen mucha energía, como tarjetas gráficas y discos duros. Los usuarios pueden acceder al almacenamiento centralizado a través de una red. Intel también está agrupando componentes activos, por lo que se necesitaría menos para enfriar un sistema.

"En realidad, hemos trabajado con ciertos proveedores de servicios en la nube para … cambiar los parámetros fundamentales para crear algo en el silicio, ya sea chipset o CPU: para satisfacer una necesidad optimizada en particular ", dijo Waxman.

Las placas base incluirán reguladores de voltaje y trabajarán con herramientas de software para monitorear el consumo de energía. Una de esas herramientas de software, llamada Dynamic Power Node Manager, limitará y equilibrará el consumo de energía entre los servidores para reducir los costos de energía. Intel probó Node Manager con el motor de búsqueda chino Baidu, que ahorró 40 vatios por servidor durante una implementación en la nube.

Intel también proporciona herramientas de software como compiladores y depuradores para mejorar el rendimiento y analizar el código del software. Optimizar el código ayuda a ejecutar tareas de manera más rápida y eficiente al tiempo que utiliza menos recursos del sistema. Eso podría ahorrar hasta $ 20 millones en tres años en una implementación de servidor de 50,000, dijo Waxman.

La compañía ha trabajado en la optimización de los códigos de búsqueda para la mayoría de los principales proveedores de búsqueda, dijo Waxman.

"En realidad tenemos gente … sitio con estos grandes proveedores de servicios en la nube haciendo ajustes prácticos, mirando sus cargas de trabajo … para obtener un mayor rendimiento ", dijo Waxman.

Algo que Intel no puede controlar es el cuello de botella del rendimiento de datos causado por la lentitud conexiones de red. Intel espera reducir eso con la función VMDQ (Virtual Machine Device Queues), que acelera el rendimiento de los datos en máquinas virtuales al hacer cola de manera inteligente al tráfico del servidor. Los hipervisores en los servidores con el software de colas trabajan en conjunto para dividir el tráfico, como el almacenamiento y el tráfico web, para equilibrar el tráfico en varias máquinas virtuales. La función corta los cuellos de botella que típicamente afectan a una red de 1G bps, dijo Waxman.

"En el pasado, una máquina virtual podía engullir todo el tráfico. Lo que realmente se puede hacer es poner las cosas en una cola", dijo Waxman.

Aprovechando la tecnología de virtualización, Intel también espera estandarizar la implementación del protocolo DCMI (Interfaz de gestión del centro de datos) en entornos de hardware y software virtualizados para facilitar la gestión de tareas del centro de datos. Las especificaciones incluyen características para medir el consumo de energía para compartir de manera efectiva los recursos en una implementación de servidor a gran escala. Por ejemplo, DCMI puede limitar el consumo de energía en los servidores y controlar la temperatura para evitar que los servidores se sobrecalienten.

Intel dijo que alrededor del 14 por ciento de los servidores comprados hoy entran en una implementación en la nube, dijo Waxman. Ese número aumentará al 25 por ciento para el año 2012, con más implementaciones en la nube en centros de datos grandes de 50,000 servidores o más, dijo Waxman.