Intel agiliza grandes volúmenes de datos
Uno de los principales retos tecnológicos de las empresas, es procesar, almacenar y analizar el exponencial crecimiento de sus datos.
Para facilitar su procesamiento, Intel dio a conocer su nuevo software Hadoop para la plataforma Apache.
Se trata de una aplicación que permite almacenar y procesar grandes volúmenes de datos en clústeres escalables de servidores, que se están conformando como la solución preferida para la gestión de “Big Data” (altos volúmenes de información).
En el sector industrial, la solución facilitaría a las organizaciones el manejo y análisis del creciente volumen de su información, que se requieren para lograr la visibilidad completa de sus procesos desde la cadena de proveedores hasta los servicios post venta con los clientes.
Intel describe que la globalización, generó un incremento exponencial de datos en la última década.
Por ejemplo, citó, a través de Internet en sólo un minuto más de 639 mil 800 gigabytes de datos son transferidos entre computadoras, 204 millones de correos electrónicos son enviados y más de 47 mil aplicaciones son descargadas. Se prevé que estas cifras se dupliquen para el 2015.
Con las soluciones de big data, destaca la compañía, se abre un enorme potencial hacia nuevos descubrimientos científicos, modelos de negocio y experiencias de consumo.
“Personas y máquinas están produciendo información valiosa, que podrá enriquecer nuestras vidas, desde la extrema precisión en la previsión del mal tiempo hasta el desarrollo de tratamientos personalizados para enfermedades terminales”, declaró Boyd Davis, vicepresidente del Data Center Software Division de Intel.
La nueva aplicación complementa otras soluciones desarrolladas por la firma, como las optimizaciones para comunicación de redes y las tecnologías IO de su línea de procesadores Xeon, que permite analizar un Terabyte de datos – algo que llevaría más de 4 horas – en sólo siete minutos.