Total storage confusion (opinie)

TintriLigt de toekomst van dataopslag in software defined (en wat is dat dan precies?), in hyperconverged of in ‘good old’ SANs? Er wordt vandaag de dag door marktpartijen met zoveel termen en mogelijke toekomstscenario’s geschermd dat het overzicht makkelijk te verliezen is. Wat het nog lastiger maakt, is dat dezelfde data vaak voor meerdere toepassingen gebruikt wordt. De toegenomen hoeveelheid locaties waar de data resideert, vormteveneens een complicerende factor.

Dit maakt het voor IT-managers moeilijk om de juiste keuze te maken om investeringen in hun opslaginfrastructuur te doen. SANs en NASsen voldoen vaak niet niet meer. Maar waarom eigenlijk niet? Veel van deze systemen zijn gebouwd voor fysieke workloads, waarvan ze de
prestaties kunnen monitoren en kunnen inspelen op gewijzigde IOPS-/capaciteitsbehoeften.

Voor de dataopslag van virtuele servers en werkplekken in het bijzonder zijn SANs veel minder geschikt. Omdat de beheersoftware van een SAN vaak geen onderscheid tussen VM’s kan maken, kunnen er fouten ontstaan die de prestaties van de hele opslaginfrastructuur omvertrekken. Dat zal menig storage manager bekend in de oren klinken. SAN-omgevingen hebben daarnaast de onhebbelijkheid dat ze periodiek ‘uit support’ lopen en dat deze support zelf vrij kostbaar is.

Vanuit dat perspectief is het dan ook meer dan logisch dat de afgelopen vier jaar een heel contingent aan nieuwe partijen is opgestaan, die met meer of minder succes de storage status quo aanvallen. De meeste partijen zijn gecentreerd rondom de thema’s hyperconverged, VM-aware en cloud.

Software defined storage (in de vorm waarbij de vendor alleen de software voor de storage biedt) wordt vaak ook in dit rijtje genoemd, maar zie ik als een onderliggende stroming die verweven is met de andere trends. Een andere definitie van Software Defined is dat de applicaties (VDI, Exchange, SAP) de aard en de prestaties van de storage bepalen. Volgens die definitie zijn wij ook software defined.

Hierbij volgt een korte uitleg over de stromingen en waar ze mijns inziens het best toepasbaar zijn:

  • Hyperconverged combineert compute en storage en vereenvoudigt het beheer, derhalve geschikt voor remote offices waar weinig of geen IT kennis aanwezig is.

Daar zien we in de praktijk ook de meeste implementaties. Verschijningsvormen zijn zowel in een hardware appliance als software defined. Bij hyperconverged appliances is het nadeel dat bij elke nieuwe aanschaf rekenkracht en opslagcapaciteit wordt ingekocht, terwijl mogelijk alleen maar behoefte was aan een van beide. De software defined-variant op basis van standaard hardware kent dit nadeel niet. Nutanix, Simplivity en Atlantis Computing zijn belangrijke spelers in deze markt, die hyperconverged appliances en/of software defined oplossingen bieden.

  • VM-aware storage biedt inzicht in gedrag van VM’s met een positieve invloed op de prestaties. Door de virtuele workload centraal te stellen, kunnen QoS en beschikbaarheid van applicaties maximaal ingeregeld worden. Hierdoor worden chargebacks en maatwerk-SLA’s mogelijk voor de (interne) klant. VM-aware storage wordt veel toegepast in VDI-omgevingen, bij gevirtualiseerde databases en bij hosting providers.

Het nadeel is, dat er geen fysieke workloads verwerkt kunnen worden. Tintri is leverancier van VM-aware storage, VMware zelf doet ook een duit in het zakje.

  • Cloud-storage is een flexibele oplossing met een positieve invloed op de CAPEX. Het nadeel is de beperkte invloed op de prestaties en dat de kosten onverwacht hoog kunnen oplopen. Cloud storage is vooral aan te bevelen voor opslag van objecten, die niet latency-kritisch zijn, niet vaak opgevraagd hoeven worden en die statisch zijn. In andere gevallen kunnen de kosten oplopen en kan de gebruikerservaring suboptimaal zijn. Leveranciers zijn onder andere Amazon, Google,Microsoft Azure en KPN.

Net zomin als een SAN in staat is om alle storagebehoeften in te vullen, zijn bovengenoemde technologieen dat. Het is logisch dat organisaties hun oude storage-architectuur niet zomaar buiten de deur zetten en eerst de kat uit de boom kijken. Daarom is het belangrijk dat nieuwe generatie-oplossingen een ‘quick win’-opleveren in de vorm van bijvoorbeeld een lagere beheerslast, een kostenbesparing of een snelle capaciteitsuitbreiding. In combinatie met een bedrijfsmatige danwel technologische prikkel biedt dit  gelegenheid om met nieuwe storagetechnologie aan de slag te gaan. Projecten die de aanleiding vormen, zijn in de praktijk hoofdzakelijk:

  • Aflopende onderhoudscontracten of licenties
  • Overstap van – of uitbreiding naar – de virtuele desktopomgeving
  • Gebruik van cloud-toepassingen
  • Datacenter-uitbreiding danwel consolidatie als gevolg van fusies en overnames

Daarbij zien wij vanuit de klant dat de hardware secundair is, in zoverre dat deze het ‘gewoon’ moet doen. De waarde zit ook bij ons grotendeels in de software; die moet meer en bij voorkeur integrale informatie leveren over de prestaties van de toepassingen. Het is cruciaal om te weten waar eventuele bottlenecks kunnen ontstaan en hierop te anticiperen door bijvoorbeeld het maximale aantal IOPS van een bepaalde applicatie aan te passen. Naast het feit dat hierdoor onnodige extra investeringen in schijf- of netwerkcapaciteit worden voorkomen, is er nog een, niet te onderschatten, voordeel. En dat is dat deze claim niet langer zomaar opgaat: “Het zal wel aan de storage liggen.”

Over Niels Roetert

Niels Roetert is Systems Engineer Benelux bij Tintri

Laatste artikelen