¿A los data centers se les acaba el espacio de almacenamiento? Es la nueva realidad de nuestros días. Todo es consecuencia de la gran cantidad de información generada que se ha incrementado en los útlimos años; los medios tecnológicos han sentido verdaderos sacudones con alguna regularidad respecto a si los centros de datos del mundo resisten en la actualidad todo el volumen de data que se produce actualmente.
No obstante, los centros de datos la actualidad poseen muchas fortalezas, con más de 500,000 instalaciones en todo el mundo con una capacidad total estimada de más de 1400 exabytes (1 exabyte equivale aproximadamente a mil millones de gigabytes). Eso es demasiado almacenamiento si se me permite decirlo; pero considerando que solo EE. UU. Produce más de 2.5 millones de gigabytes de datos por minuto, ¿será suficiente?
Mejoras en los discos duros
Un problema al hacer esta planteamiento es que rara vez tiene en cuenta los rápidos desarrollos en la tecnología de almacenamiento en el transcurso de la última década. Al igual que la paranoia de principios de la década de 2000 por el consumo de energía del centro de datos, las preocupaciones sobre las limitaciones de almacenamiento se basan en el presente.
Durante décadas, las unidades de disco duro (HDD) fueron la base del almacenamiento de datos debido a su confiabilidad y a que eran relativamente baratos. Aunque todavía hay espacio para la innovación, los discos duros finalmente están alcanzando sus límites de rendimiento. Mejoras adicionales requerirían demasiado consumo de energía para ser práctico.
Durante ese transcurso, las unidades de estado sólido (SSD), mejor conocidas como almacenamiento flash, han logrado enormes avances en confiabilidad, rendimiento y capacidad. Si bien la tecnología aún no ha alcanzado la paridad de precios con el almacenamiento en disco duro, la compensación de rendimiento ya ha convencido a muchos fabricantes y empresas a abandonar el formato anterior. Más importante aún, la memoria SSD solo ha arañado la superficie de su potencial, con nuevos avances cada año para ofrecer una mejor velocidad y capacidad.
Dispositivos de Internet de las cosas
Otra de las causas relevantes para es volumen de datos tan enorme, es la abundancia de dispositivos de Internet de las cosas (IoT). Conectados continuamente a las infraestructuras de red y recolectando datos constantemente, se espera que los dispositivos IoT superen los 20 mil millones de unidades para 2020. Estos dispositivos representan muchas de las proyecciones de crecimiento exponencial que generan dudas sobre la capacidad de almacenamiento de datos global. Incluso las estimaciones más conservadoras esperan que los dispositivos IoT generen docenas de zettabytes (1 zettabyte es aproximadamente igual a 1 billón de gigabytes) de datos anualmente en los próximos cinco años.
Afortunadamente, la naturaleza misma de los dispositivos IoT los convierte en un problema un poco menos desalentador de lo que podrían parecer inicialmente. Gran parte de los datos que recopilan estos dispositivos se procesan localmente, a menudo con la potencia informática propia del dispositivo. En otros casos, estos datos se transmitirán a un centro de datos periférico en lugar de a un centro de datos de grado empresarial o hiperescala. Los centros de datos perimetrales pueden recopilar datos, pero no se utilizan principalmente para almacenarlos. Gran parte de la información recopilada por los dispositivos IoT es redundante o no esencial y puede descartarse fácilmente. Si bien las arquitecturas de cómputo de borde requerirán análisis potentes para determinar qué datos deben retenerse y qué se puede marcar para su eliminación, la implementación de estas medidas de filtrado disminuirá en gran medida la presión sobre la capacidad del centro de datos.
Datos no estructurados
Gran parte de los datos que se generan hoy se consideran no estructurados, tal vez hasta el 80% si las estimaciones son precisas. Los datos no estructurados se distinguen por la falta de un formato específico. Puede venir en muchos tamaños, formas y formas, por lo que es un desafío administrarlo. Estos datos pueden contener muchas ideas valiosas de negocios, pero encontrar esas ideas puede ser como buscar una aguja en un pajar. Solo vale la pena guardar aproximadamente un 10% de los datos no estructurados para su análisis.
Gran parte de los datos generados por los dispositivos IoT no están estructurados, por lo que se pueden implementar las mismas estrategias básicas para tratar otras formas de datos no estructurados. Mediante el uso de tecnología cognitiva impulsada por la inteligencia artificial, las empresas ya están encontrando formas de interpretar, evaluar y obtener mejor información de estos datos, lo que facilita la administración en el proceso. El hecho de que los centros de datos tengan un almacenamiento exacto no significa que se deba preservar cada fragmento de datos. Gran parte de esta información es redundante, irrelevante o está dañada, por lo que cualquier herramienta que permita identificar y descartar datos “inútiles” resultará invaluable para un almacenamiento y gestión de datos efectivos.
Leer también: ¿Qué es la inteligencia de red (NI, Network Intelligence)?; Sistema de monitorización de racks de servidores: qué es y por qué es importante; Infraestructura hiperconvergente vs convergente: definiciones y aplicaciones
More from Tecnologia
Tipos de Certificados SSL: Guía Completa sobre Validación de Dominio, Validación de Empresa y Validación Extendida
En un mundo cada vez más digitalizado, la seguridad en línea se ha convertido en una prioridad absoluta para empresas …
SSL, TLS y HTTPS: Comprendiendo los conceptos
En la era digital actual, la seguridad en Internet es más crucial que nunca. Cada día, millones de transacciones y …
Integridad de la información en seguridad informática
Integridad de la información en seguridad informática.En una era en la que la información se ha convertido en uno …