Androide

Amazon automatiza el uso de Hadoop para desarrolladores

Data centric: la estrategia Carrefour que mejora la experiencia de usuario

Data centric: la estrategia Carrefour que mejora la experiencia de usuario
Anonim

Amazon.com ha lanzado un servicio alojado diseñado para simplificar para los desarrolladores el uso de la implementación Hadoop del modelo de programación MapReduce para procesar grandes conjuntos de datos en clústeres de procesadores.

Llamada Amazon Elastic MapReduce, el servicio de computación en la nube está dirigido a desarrolladores cuyas aplicaciones necesitan procesar grandes cantidades de datos, para lo cual Hadoop es ideal.

Con Amazon Elastic MapReduce, muchas tareas que los desarrolladores necesitarían manejar de forma manual relacionadas con Hadoop son automatizadas, la computación en la nube Amazon Web Services (AWS) de la compañía división dijo en un blog oficial el jueves.

[Lectura adicional: Los mejores servicios de transmisión de TV]

"Usando Elastic MapReduce, puede crear, ejecutar, monitorear y controlar trabajos de Hadoop con facilidad de apuntar y hacer clic. No tienes que salir y comprar montones de hardware. No tiene que crearlo, conectarlo en red o administrarlo. No tiene que preocuparse por quedarse sin recursos o compartirlos con otros miembros de su organización. No es necesario que lo supervise, sintonice ni dedique tiempo a actualizar el sistema o el software de la aplicación ", dice la publicación del blog.

AWS decidió crear este servicio después de enterarse de que los clientes ejecutan trabajos Hadoop en Amazon El servicio Elastic Compute Cloud (EC2), que brinda capacidad de computación alojada. Debido a que Hadoop se está volviendo cada vez más popular, Amazon pretende facilitar que otros desarrolladores aprovechen esta implementación de código abierto de MapReduce.

Elastic MapReduce funciona en conjunto con EC2 y Amazon Simple Storage Service (S3) alojaron el servicio en la nube de almacenamiento. "Elastic MapReduce automáticamente crea una implementación de Hadoop del framework MapReduce en instancias de Amazon EC2, subdividiendo los datos en un flujo de trabajo en fragmentos más pequeños para que puedan ser procesada - la función 'mapa' - en paralelo, y eventualmente recombinando los datos procesados ​​en la solución final - la función 'reducir'. Amazon S3 sirve como fuente para los datos que se analizan y como destino de salida para los resultados finales, "de acuerdo con una descripción separada del servicio.

Al igual que con otros servicios en la nube de AWS, Amazon cobra por Elastic MapReduce en función de su uso, sin una tarifa mínima.