Estudios recientes demuestran que cada 18 meses se duplica la cantidad de información en una empresa, con su consecuente problema de almacenamiento. De ahí la necesidad de estudiar nuevas soluciones que mejoren el rendimiento de los data centers.
Otra conclusión de este evento fue que actualmente, si queremos obtener el máximo rendimiento en la virtualización de servidores, tenemos que virtualizar también el almacenamiento y para ello se han desarrollado numerosas soluciones, como pudimos ver en las exposiciones de los diferentes fabricantes.
Atendiendo a lo que sería la tecnología de los discos, podemos decir que, dependiendo de la tecnologia de éstos, puede haber diferencias en cuanto a prestaciones/coste. Así por ejemplo, los discos SATA se caracterizan por su bajo coste así como por un rendimiento más bajo (mejorable a través de arrays de discos). Los discos de fibra óptica, se caracterizan por un precio elevado y se prevé que los fabricantes lo vayan sustituyendo por los discos SAS, de una mejor relación precio/prestaciones. En relación a los discos de estado sólido, decir que son el futuro a largo plazo, pero su precio actual lo desaconseja para su uso salvo para aplicaciones de muy alto rendimiento.
Todas estas distintas características aconsejan poner los datos en el sitio adecuado dependiendo de sus diferentes requisitos de accesibilidad.
Los diferentes fabricantes nos hablaron de la posibilidad de virtualizar, con la que se garantiza la independecia absoluta del hardware y podemos elegir desde que disco y hacia que dispositivo copiamos, a la hora de realizar los backups necesarios.
Gracias a la virtualización del almacenamiento podemos reutilizar los dispositivos hardware de almacenamiento primario o de copia de seguridad para ofrecer un servicio completo no sólo a una sóla máquina física sino a todas las máquinas virtuales, con lo que logramos una optimización de la inversión.
Tambien las diferentes ponencias nos hicieron ver la importancia del backup y de la necesidad de un diseño y planificación a la hora de realizarlos, cosa que no siempre se cumple en todas las organizaciones y podría provocar un desastre muy costoso.
Varias ponencias mencionaron el tema de la deduplicacion gracias a la cual obtenemos una optimizacion del espacio disponible. Ello consiste en que el software vigila que no haya datos duplicados y así se consiguen ratios de ahorro mayores al 50%, eso sí, dependiendo del tipo de datos.
Sin duda fueron unas jornadas muy interesantes y formativas, al igual que seguro lo serán las de nuestro próximo Encuentro: "Portales Colaborativos", del 23 al 24 de Junio. Os esperamos.
No hay comentarios:
Publicar un comentario