Las Herramientas de Big Data
Las Herramientas de Big Data
Las Herramientas de Big Data
Big Data es para tratar con grandes volúmenes de datos, aparece cuando decidimos dejar de
quedarnos con lo que era más relevante y pasar a quedarnos con TODO. Toda información sirve en
algún momento y nos puede permitir ver cosas que con solamente "lo importante" no podemos
llegar a ver y que en muchas ocasiones nos puede aportar mucho valor. Hoy en día se ha vuelto
factible tener mucha información y ser capaz de consumirla, pero también hay que entender
cuando tiene sentido usar herramientas Big Data y cuando no. Si tenemos un volumen alto de
datos y tenemos que lidiar con gigas y gigas de datos (o alguna magnitud mayor) estará bien usar
estas herramientas.
empresas. El análisis de datos es crucial para la empresa porque brinda información muy
valiosa que le permite desarrollar una estrategia que se enfoca en atraer nuevos clientes y
aumentar las ventas. Sin embargo, si no utilizamos los métodos adecuados, es difícil
analizar la gran cantidad de datos que se obtienen en estos procesos. Para esto se utilizan
Apache Drill
de datos a gran escala. Fue diseñado para poder alcanzar una alta escalabilidad en
Apache Hadoop:
Es la herramienta de Big Data más utilizada, de hecho, empresas como Facebook o The
Lenguaje R
porque es muy similar a un lenguaje matemático; aunque también se usa para análisis de
Big Data. Tiene una amplia comunidad de usuarios, por lo que hay una gran cantidad de
Elasticsearch:
información obtenida. Una de las ventajas de esta herramienta es que se puede ampliar
con Elastic Stack, que es una serie de productos que mejoran la funcionalidad de
Elasticsearch. Mozilla y Etsy son algunas de las empresas que utilizan esta herramienta de
Big Data.
Apache Hive:
Apache Hive es la infraestructura de almacenamiento de datos de Hadoop. El software
mecanismo para proyectar la estructura sobre los datos y realizar consultas utilizando un
Python:
para usarlo, lo que significa que tiene una gran cantidad de usuarios que pueden optar por
Apache Storm:
Storm es una herramienta de Big Data de código abierto que se puede utilizar con
cantidades de datos en tiempo real y crear una topología de Big Data para conversión y
MongoDB:
Es una base de datos NoSQL que está optimizada para manejar conjuntos de datos
Apache Spark:
La característica más notable de esta herramienta de Big Data es su velocidad, que es 100
veces más rápida que Hadoop. Spark puede analizar datos en lotes o en tiempo real, y
Apache Cassandra
Apache Oozie
Esta herramienta de Big Data es un sistema de flujo de trabajo que le permite definir
vincular trabajos y permitir que los usuarios establezcan dependencias entre ellos.
Referencias
https://www.baoss.es/10-herramientas-para-manejar-big-data-analytics/