Viernes 26 de Abril de 2024       •      Dólar= $945,00      •      UF=$37.237,20       •      UTM=$65.182

BIG DATA
¿Estamos preparados para el desafío?
Pablo García, Gerente de Data Center de Level 3 Chile.

Los volúmenes de datos generados por personas y empresas están creciendo a pasos agigantados, y para poder extraer el valor de esta información se necesita contar con capacidades que permitan acceder a ellos de manera veloz y certera.

¿Sabía usted que cada 48 horas generamos tantos datos en Internet, como los que ha producido la humanidad desde el inicio de la civilización hasta el año 2003? Al menos eso es lo que señala Google.

En la actualidad, nos encontramos con una multiplicidad de dispositivos inteligentes y vías de comunicación que han provocado este crecimiento exponencial en el volumen de datos, dando origen al fenómeno que desde hace un tiempo se conoce como Big Data. Ya para 2013 IDC había anticipado que el total de los datos digitales creados (y reproducidos) en el mundo alcanzaba los 4ZB (1 zettabyte = 1070 millones de terabytes) en todo el planeta.

En cuanto a la inversión en tecnologías y servicios de Big Data (grandes datos), la consultora predice que año tras año, a partir de 2014, irá evidenciando un crecimiento del 30%. Esto, promovido por el factor ecosistema TI, dentro del cual destaca la proyección de crecimiento del 12% para el segmento de smartphones, y del 18% para las tablets, gracias al sistema operativo abierto Android.

Cabe destacar que cuando hablamos de Big Data, no solo nos referimos a grandes volúmenes de información, sino también a variedad, velocidad, y lo que es más importante, valor. Justamente, el gran atractivo para las empresas está en poder sustraer, componer y/o producir información que aporte un valor diferencial en base a este gran cúmulo de datos.

La complejidad del proceso de transformación de estos volúmenes de datos en información confiable, útil y oportuna, presenta un reto de gran envergadura. Los desafíos están principalmente centrados en estas seis funciones:

1. Recolectar datos que se generan desde múltiples fuentes, en distintos formatos y se capturan a través de diferentes protocolos y/o vínculos.
2. Reconocer, analizar y entender los datos para poder generar información válida y sustancial.

3. Proteger adecuadamente la información. Para cumplir con este paso, se debe tener en cuenta la legislación de protección a la información que puede variar por tipos de datos, industria y país (o Región).

4. Almacenar y resguardar eficientemente los datos. La conjunción de variedad, volumen y eficiencia nos lleva inevitablemente a un entorno donde distintos modelos de base de datos no solo deben coexistir, sino también integrarse para poder representar de forma acabada las relaciones entre los datos.

5. Garantizar la performance y disponibilidad de la información. El valor no solo está dado por la información en sí misma, sino por la posibilidad de disponer de ella en tiempo y forma.

6. Planificar y ejecutar respuestas óptimas. Las empresas que más se destaquen llevando adelante esta etapa del proceso son las que van a lograr los mejores resultados desde el punto de vista de la efectividad y eficiencia.


Superando las dificultades

Ahora bien, ¿cuál es la importancia de este nuevo modelo de procesamiento en la dinámica de un centro de datos? Los métodos de análisis y consulta de grandes volúmenes de datos son fundamentalmente diferentes de los análisis estadísticos tradicionales basados en pequeñas muestras.

Estos datos son, a menudo, más dispersos, dinámicos, heterogéneos, y podríamos decir que son también más complejos. Muchas veces, para un correcto análisis, será necesario tomar en cuenta los metadatos e, inclusive, para poder automatizar el proceso, nos veremos obligados a incorporar definiciones semánticas.

Podemos reconocer que, en determinadas situaciones, pueden ser menos confiables. Sin embargo, aun en estas condiciones, pueden ser más valiosas para el negocio que las muestras pequeñas que se manejan en los análisis tradicionales. Además, este gran volumen de datos interconectados forma grandes redes de información que se pueden explorar para compensar los datos faltantes, para cotejar los casos conflictivos, o para validar su veracidad.

Por ejemplo, un médico puede escribir “TVP” como el diagnóstico de un paciente en su historia clínica, siendo esta abreviatura utilizada comúnmente tanto para “trombosis venosa profunda” como para “diverticulitis”. Es decir, dos condiciones médicas muy diferentes. Una base de conocimientos construida a partir de datos relacionados, como los síntomas asociados a las enfermedades y los medicamentos, se puede utilizar para determinar cuál de los dos términos es al que hacía referencia el médico.

Del mismo modo, las preguntas a realizar sobre los datos no siempre estarán definidas de antemano. Es posible que estas salgan de los mismos datos.

Aunque siempre ha sido una necesidad disponer de profesionales especializados en análisis de datos, los perfiles requeridos para llevar adelante este análisis, cuando se trata de grandes volúmenes, es un poco diferente. Se necesita una base sólida en Tecnologías de Información y Comunicaciones, conocer en profundidad las estrategias, los mercados, los productos/servicios, y los procesos dentro de las organizaciones.

Marzo 2014
.......
Comentarios acerca de este artículo
No hay comentarios publicados
Comenta este artículo
Nombre:
Empresa:
Email:
Comentario:
Notificarme de actividad en este artículo
Ingrese los caracteres de la imagen:
Desayunos Tecnológicos
CIBERSEGURIDAD: Cuando la Educación es más importante que la Tecnología
MERCADO DE LA DISTRIBUCIÓN TIC: Desafíos en la era del modelo híbrido
SERVICIOS GESTIONADOS DE IMPRESIÓN: Negocios de largo plazo y valor en servicio
Contáctenos
Dirección: José Manuel Infante 919, Of. 203,
Providencia, Chile
Teléfono: (562) 2433 5500
Email: info@emb.cl
Visite también:
© Copyright 2023 Editora Microbyte Ltda.