Unexpected.be

Telling stories for a living

Tag: Storage (page 1 of 2)

Software Defined Everything

SDDC ofwel Software Defined Data Center is een hot topic in de IT wereld. Hardware wordt “commodity” waar niemand nog interesse voor heeft: het moet doen waarvoor het gebouwd is, dat is wat men verwacht. Hoe het dat precies doet is bijkomstig geworden.
Niet zo heel erg lang geleden werden verkoopsgesprekken nog gevoerd met behulp van bits & bytes, feats & speeds zeg maar – het eureka voor een select groepje techies, een zwarte vlek op het netvlies van vele anderen. Vandaag staan we met zijn allen op een gigantisch kantelpunt in de sector. When it rains, it pours is een heel toepasselijk gezegde als je het mij vraagt.
Allow me to elaborate…
When It Rains, It Pours
Enterprise omgevingen zijn altijd wat conservatiever dan consumenten. Denk maar aan je Hotmail of Gmail account die je van overal en op elk toestel kan raadplegen, bijna altijd met onbeperkte opslag en coole features.
Denk dan eventjes terug aan je werkmail en bedenk dat je daar meestal een mailbox hebt met beperkte opslag, dat je die mailbox alleen op het werk kan raadplegen of op je smartphone / laptop die door je werkgever werd uitgereikt en dat je daarenboven al die coole features moet missen die je thuis al jaren kent.
De vergelijking met je gratis cloud mailbox is gigantisch… en ja, ik weet uiteraard dat het niet zo evident is en dat er veiligheid en data beschikbaarheid en what else meespeelt in het bedrijfsleven en dat die zaken een kost hebben. Maar toch… mensen zijn die “luxe” gewoon en vroeg of laat moet de bedrijfswereld aansluiting vinden.
Music, Maestro, Please
Een ander voorbeeld van “software defined” is je muziekverzameling. CD’s kwamen en gingen, mp3’s en digitale downloads kwamen en zijn er nog steeds, maar de cloud services zoals Spotify, Rdio, Deezer, Pandora en zo voorts winnen elke dag marktaandeel.
Het is een kwestie van tijd alvorens digitale downloads ook een uitzondering worden. En terecht! Opnieuw het gebruiksgemak van altijd en overal aan je muziek te kunnen is een luxe die mensen heel erg snel gewoon zijn. Hard-copy werd vervangen door software die eerst lokaal stond en nu zelfs in de befaamde cloud rondzwermt.
Videotape Is Dead
Nog een voorbeeld nodig? Videorecorders werden DVD-recorders en HDD-recorders. Daarna kwamen de Digicorders die met een settopbox en dus een vendor-lock-in toegang boden aan een provider gerelateerde cloud. Bijvoorbeeld Rio en Rex van Telenet waar je films en series kan bekijken, bestellen en streamen vanuit je luie zetel.
De volgende evolutie is nu ook al onze huiskamer aan het binnensluipen onder de vorm van Netflix en Stievie. TV, film en series waar en wanneer je wil op eender welk toestel dat internettoegang heeft. Niet meer vastzitten aan de locatie van je settopbox, maar kunnen kijken in de living op je grote TV, switchen naar je iPad tijdens het koken en daarna gewoon in de slaapkamer op de tweede TV, allemaal door middel van een cloud-oplossing die niet gebonden is aan het merk van je toestel of aan je provider van internet of televisie. Blessing!
Server-Side Whitelabled Commodity Hardware
Deze verschuiving zien ze ook in de enterprise omgeving en eigenlijk is die jaren geleden begonnen met bijvoorbeeld server-virtualisatie. Daarna werden de desktops gevirtualiseerd (echter wel alleen tractie gevonden voor zeer bepaalde use-cases, maar dat is een aparte discussie).
De volgende schakel in de ketting is de storage oplossing: gedaan met merkgebonden harde schijven met bijpassende disk-enclosures en een allesziende custom-made storage controller die daarbovenop draait en het boeltje beheert. De markt is aan het verschuiven naar commodity hardware. Whitelabel boxes zeg maar. Zelfgemaakt of een lot kunnen kopen aan een goede prijs. Het maakt allemaal bijzonder weinig uit, want de added-value en differentiatie zit in de softwarelaag erboven. Software-defined dus.
Twijfels? De trendsetters van deze wereld doen het nochtans al een hele lange tijd, nietwaar Google?
Argumenten zoals onbeheersbaar, slechte support, duurder op langere termijn, slechtere performantie,… zijn allemaal excuses om niet te veranderen. Net zoals platenmaatschappijen en TV-zenders halsstarrig willen vasthouden aan hun vergane glorie. Het wordt geen kwestie van meedoen of niet. Neen, het wordt een kwestie van meedoen of stoppen te bestaan.
Software defined is here to stay, komt in veel geuren en kleuren en laat ik nu professioneel net samenwerken met een belangrijke speler op de enterprise markt die deze boodschap heel erg goed begrepen heeft.
In enkele vervolgblogs ga ik graag wat dieper in op zaken als software defined storage, management en cloud integratie.
Stay tuned!

RAID Is (Almost) Dead

Vandaag is RAID (Redundant Array of Independent Disks) een vorm van data protectie waarop elk enterprise storage systeem op terugvalt. RAID beschermt je data voor fysisch falen van een harde schijf (of meerdere harde schijven). Het is dus géén alternatief op een backup-oplossing: als je gegevens verwijdert of een virus infecteert je bestanden, dan zal RAID daar niets aan veranderen.
Zelfs oplossingen voor consumenten ondersteunen RAID om “dataloss” te voorkomen, weliswaar in minder varianten dan de professionele oplossingen. De meeste thuisproducten ondersteunen RAID0 (helemaal geen protectie, wel meer performance) en RAID1 (vooral bescherming, maar tegen een hoge prijs) terwijl de iets duurdere varianten ondersteuning bieden voor RAID5.
Om mijn punt van deze blogpost te verduidelijken, wil ik graag het RAID1 voorbeeld gebruiken. RAID1 oftewel “Mirroring” betekent dat je voor elke harde schijf een tweede exemplaar hebt dat dezelfde data bevat als het eerste exemplaar. In geval dat de eerste schijf faalt, dan neemt de tweede het direct over (dus zonder onderbreking). Bij zo een incident vervangen we de defecte schijf met een nieuw, leeg exemplaar en zal de computer van het storage systeem alle data van de nog werkende schijf kopiëren naar de nieuwe, lege schijf om op die manier een nieuwe RAID1 set te creëren.
Het spreekt voor zich dat hoe groter de capaciteit van de schijven is, hoe langer dat kopieerproces duurt. De “catch” zit hem in het feit wanneer de primaire schijf faalt alvorens dat kopieerproces helemaal klaar is: als die situatie zich voordoet, heb je “dataloss”. In dat geval mag je hopen dat je een goede backup hebt of je gegevens zijn voor goed verdwenen.
Voor kleine, snelle schijven van 300GB die aan 15,000 toeren per minuut roteren is zo een “copy job” relatief snel geklaard. Vandaag hebben we echter al 3TB schijven ter beschikking die roteren aan 7,200 toeren per minuut. Het spreekt voor zich dat zo een schijf kopiëren meer tijd in beslag zal nemen (want meer data en tragere rotatiesnelheid) en daardoor is de kans op dataloss statistisch gezien groter.
Als we Seagate (een van de grootste fabrikanten van harde schijven op wereldvlak) mogen geloven, dan zijn 100-300TB harde schijven binnen een jaar of tien realiteit. Als ik vertel dat een “rebuild”, want zo noemen we een RAID set die zichzelf herstelt, van een RAID5 volume ongeveer 1 dag per TB nodig heeft, dan zou een rebuild van een 300TB harde schijf dus ongeveer 300 dagen in beslag nemen. De kans is zéér reëel dat er in die tijdspanne nog een harde schijf faalt, met als gevolg “dataloss”. En aangezien we dan werken met 300TB schijven, is een verlies van 1PB (1PB = 1,000TB = 1,000,000GB) aan data zeker realistisch. Ik moet niet stipuleren dat 1PB aan dataloss zo goed als meestal gelijk staat met een serieus probleem in een bedrijf…
Kortom: RAID als bescherming tegen het fysisch falen van een harde schijf is op het einde van zijn carrière. Storage vendors (zoals Hitachi Data Systems) zijn vandaag dus al bezig met hoe ze zo een datasets kunnen beschermen en we gaan dus nog boeiende tijden tegenmoet in de storage wereld.
Wordt zonder enige twijfel vervolgd…

SAN

Dit is een vervolgpost op een eerdere post – Shared Storage.
SAN – Storage Area Network – is de meest pure vorm van storage die je kan verkrijgen. In de volksmond zegt men “SAN” tegen de shared storage omgeving wanneer men spreekt over een “block-based” storage oplossing. Om uit te leggen wat daarmee bedoeld wordt, spoelen we terug naar onze computer thuis.
Als je een harde schijf in je computer installeert, dan kan je daar op zich weinig mee doen. Die schijf moet geformateerd worden zodat het besturingsysteem (oftewel OS van Operation System) ze herkent als opslagmedium, waarna er een bestandsysteem op gemaakt kan worden (vanaf nu file-system).
Op het moment dat de harde schijf in de computer zit en geformateerd is, is het een “block-device”. Het OS ziet een opslagmedium, maar het kan er niet van lezen of naar schrijven omdat er geen file-system op zit.
Een file-system is praktisch altijd gelinkt aan het OS: Windows gebruikt vandaag NTFS (NT File System en NT verwijst naar Windows NT, het allereerste “professioneel” OS van Microsoft).
Vroeger had je op Windows ook FAT16/32, wat je nog kan tegenkomen als je bv. een USB-stick wil formatteren. Apple gebruikt dan weer MAC OS Extended op hedendaagse systemen. En zo heeft elk OS zijn eigen variant van een file-system, die zo goed als nooit compatibel zijn onderling.
Hieruit kan je concluderen dat een applicatie of zelfs een OS nooit “rechtstreeks” naar een SAN kan schrijven. Er moet eerst een file-system aangemaakt worden alvorens er bestanden weggeschreven / gelezen kunnen worden van de SAN.
De SAN bestaat dus uit X aantal harde schijven + controllers die de intelligentie van het systeem uitmaken. Met die controllers (en de bijhorende management software) gaan we een aantal van die harde schijven bundelen in een groep die ervoor zorgt dat wanneer er een harde schijf stuk gaat, er automatisch een reserve exemplaar in de plaats komt zonder dat er data verloren gaat.
Deze configuratie noemen we een RAID-groep (Redundant Array for Independent Disks) en er bestaan verschillende varianten met elk zijn voor- en nadelen. Op dit moment is dat echter onbelangrijk en ga ik daar niet verder op in.
Nu hebben we dus een RAID-groep met daarin X aantal harde schijven. Op die groep gaan we een “virtuele” harde schijf maken en dat noemen we een Logical Unit (LU). Soms wordt dat ook een LUN (Logical Unit Number) genoemd, maar technisch gezien wordt een LU pas een LUN wanneer ze aangeboden wordt aan een server.
Ook dat maakt weinig uit op dit moment, zo lang het duidelijk is dat we op die “fysische” groep van schijven (RAID-groep) een “virtuele” schijf gemaakt hebben die even groot is als de som van de fysische schijven in de RAID-groep.
Kanttekening:

  • De “virtuele” schijf moet niet even groot zijn als de totale som, maar is maximaal even groot + best practise zegt dat je 1 “virtuele” schijf maakt per RAID-groep (waarom leg ik later wel uit)
  • De “virtuele” schijf is eigenlijk niet gelijk aan de totale som van de fysische schijven in de RAID-groep omdat je 1 of meerdere schijven niet kan gebruiken omdat die er voor zorgen dat je data niet verloren is wanneer er een schijf stuk gaat. Voor nu is dat echter niet belangrijk en gaan we gewoon van een simpele 1-op-1 stelling uit om alles high-level te kaderen

Het is de “virtuele” schijf oftewel LU(N) die we via een storage-netwerk (SAN, remember?) aan de server aanbieden. De server ziet die LU(N) dan alsof er in de server zelf een harde schijf is toegevoegd. Met andere woorden – het OS moet die LU(N) formatteren en er een file-system op plaatsen alvorens de applicaties er iets mee kunnen doen. En dat is in essentie wat een SAN is / doet en waarom we dat een “block-based” storage platform noemen.
Nog interessant om weten: dat “netwerk” waarmee de SAN aan de servers gekoppeld is, is meestal een glasvezel netwerk (FC – Fibre Channel) dat vandaag tot 8Gb/s aankan. Anderzijds is er ook de mogelijkheid om over het IP-protocol te werken en dan spreken we van een iSCSI SAN in plaats van een FC-SAN. iSCSI kan in 1Gb/s of 10Gb/s aangeboden worden.
Typisch zie je iSCSI in kleinere omgevingen of omgevingen waar men al zwaar geïnvesteerd heeft in een IP-netwerk. Een FC-SAN vereist een FC-netwerk met speciale switches, waardoor de kostprijs ook hoger ligt.
Hopelijk is de term SAN als variant van Shared Storage nu duidelijker? Zoals gewoonlijk zijn vragen of feedback welgekomen in de comments hieronder! Next up: NAS oftewel Network Attached Storage.

Hitachi Data Systems – HUS VM

Hitachi Data Systems heeft vandaag een compleet nieuwe storage oplossing onthuld: HUS VM – Hitachi Unified Storage VM. Het komt er op neer dat er een perfecte combo gemaakt werd van het midrange HUS platform enerzijds en de enterprise oplossing VSP anderzijds.
HUS VM is “unified” en kan dus zowel block, file als object storage aanbieden, net zoals het HUS platform. De “VM” suffix is “the magic sauce” die ervoor zorgt dat je third-party storage kan virtualiseren via het HUS VM systeem, een technologie die overgenomen werd van het VSP platform.

Concreet kan je bijvoorbeeld je bestaande block storage aan de HUS VM koppelen en de data vanaf dat moment door de HUS VM aanbieden aan je servers.
Hierdoor kan migratie volledig online gebeuren (slechts downtime om de bestaande storage aan de HUS VM te koppelen) en op eigen tempo, maar kan je je “afgeschreven” storage ook gebruiken als extra tier voor bv. archief doeleinden.
More, after the break.
 

Dropbox Doubles

Mijn trouwe cloud storage provider – Dropbox – heeft al zijn “Pro” accounts een upgrade gegeven. Het 50GB plan is verdwenen en het laagste “level” is vanaf nu 100GB. Daarnaast kan je nog voor 200GB of 500GB opteren en zijn er uiteraard nog de “Team” plans voor meerdere gebruikers.
Goed nieuws voor bestaande klanten: de prijs blijft hetzelfde, maar je storage verdubbeld. Vanaf nu dus 100GB + mijn gratis verworven extra capaciteit, geeft een mooi “cloud” totaal van 138GB.
Lokale storage wordt elke dag minder “aantrekkelijk”.

NAS Troubles III

Eureka! Er is licht aan het einde van de tunnel, denk ik. Het voorbije weekend heb ik nog wat zitten prullen met de instellingen van de iOmga NAS en als bij wonder wil het ding terug een “propere” shutdown uitvoeren.
De “search” functie uitgeschakeld (dit laat toe om vanuit de iOmega console de interne storage te doorzoeken naar een file – ik gebruik dat niet dus weg ermee), de UPNP server uitgeschakeld (dit gebruik ik wel en laat bv. iTunes, AppleTV, Eminent media player,… toe om de NAS automatisch te herkennen in een netwerk als media server), rSync gecheckt (stond al uitgeschakeld) en de FTP server ook afgezet (deze wil ik ook gebruiken, de MFP upload netwerkscans in PDF naar de NAS…).
De IX4-200D nog eens proberen uit te schalen en BOEMMM! – succes. De features die ik wil gebruiken (UPNP en FTP) terug ingeschakeld en nog eens getest – BOEEEEMMMM! – nog altijd succes. De search en de rSync staan nog uitgeschakeld (ik gebruik ze toch niet) dus vermoedelijk is één van die twee services de schuldige (ik gok op de search), maar dat ga ik binnenkort nog eens trachten te staven met een authentieke try & fail / win testje ;-).
Wordt vervolgd, maar voorlopig ziet het er rooskleurig uit (al ben ik nog altijd niet te spreken over de problematiek op zich met iOmega en hun support afdeling).

Hoe meer data je hebt, hoe meer de noodzaak voor een goed systeem om alles een plaats te geven. Backups, documenten, foto’s, bookmarks, text-files, slidedecks,… you name it. De tijd van megabytes is al lang vervlogen. Zelfs gigabytes beginnen geschiedenis te worden. Vandaag, zelfs in “consumer” omgevingen – lees: in je eigen huis – zijn terabytes al schering en inslag.
Ik heb twee laptops: mijn persoonlijke Macbook en een ThinkPad van de werkgever. Daar begint het probleem al. Ik wil graag al mijn werkgerelateerde documenten  beschikbaar hebben op mijn Macbook, maar ook op mijn iPhone of iPad bijvoorbeeld. Als ik ‘s avonds aan iets denk of ik wil nog snel een document of presentatie overlopen, dan heb ik geen zin om mijn ThinkPad te gaan zoeken, op te starten en te wachten. Dan wil ik gewoon mijn iPad van de salontafel pakken en dat document openen.
Vroeger werd zo iets opgelost met zaken doormailen. Of op een USB-stick zetten. Maar dan zit je met verschillende versies van een bestand, met alle gevolgen vandien. Corrupte files (ik denk aan “Available Offline” van Windows – de slechtste uitvinding ooit), niet meer weten welke versie de juiste is, de verkeerde versie meehebben,…
Om dat euvel op te lossen, gebruik ik “de Cloud”. In mijn geval is die cloud DropBox (en in beperkte mate iCloud en Google). Dat cloud-gebeuren lost mijn probleem van verschillende versies her en der op. Ik moet ook slechts één “file repository” backuppen. Win-win dus.
Maar DropBox is niet alles uiteraard. Mijn werklaptop wordt niet verder gebackupped. Alles wat van belang is, zit in mijn eigen “private cloud”, de rest – lees: OS en applicaties – kan mij gestolen worden. Als mijn ThinkPad sterft, kapot gaat, gestolen wordt,… is het gewoon een kwestie van een nieuwe ThinkPad te bestellen en mijn cloud applicatie erop te installeren.
Mijn Macbook zit naast dat cloud-gebeuren, wel nog verwikkeld in een backup structuur. Mijn Macbook bevat ook mijn muziek, mijn foto’s, mijn hebben en mijn houden zeg maar. Documenten zitten in de cloud, maar de “media” niet. Of toch niet in DropBox en consoorten, want daarvoor is mijn storage capacity daar veel te kleinschalig.
Neen. Mijn Macbook stuurt in eerste instantie alles naar de USB-schijf met TimeMachine van Apple. Dat is mijn eerste toevluchtsoord in geval van nood. Daarnaast wordt er elke nacht een “smart copy” gemaakt via Super Duper. Smart copy impliceert dat enkel de eerste backup een full copy is en dat elke daarop volgende backup in feite bestaat uit delta’s. Sommige backup toepassingen noemen dat ook wel “incremental forever”.
Die Super Duper backup gaat naar een FreeNAS netwerk opslag met een capaciteit van om en bij de 4TB (ZFS als onderliggend filesystem).
Als derde vangnet heb ik een kopie van alles wat echt belangrijk is (een iTunes backup, een LightRoom backup,…) ook gekopieerd naar mijn iOmega StorCenter, eveneens een NAS box. RAID5 voor de disk-config, in totaal 4TB raw capacity, 2,7TB usable capacity. Die backups zijn een manueel gebeuren en doe ik gemiddeld eens per maand, meer als ik veel nieuwe data op de Mac heb gedumpt.
Lokaal is mijn backup systeem dus meer dan redundant, maar dat was nog niet genoeg. Wat als mijn huis in vlammen op gaat? Of wat als er dieven over de vloer komen die alles meesleuren, ook mijn backup devices? Oplossing? De cloud natuurlijk! De volledige Macbook wordt opnieuw permanent naar de cloud gestuurd via CrashPlan. Ook hier kan je spreken over “incremental forever” backups, maar daarop nog eens deduplicatie zodat de upload naar de cloud (de delta’s van daarnet) zo klein mogelijk is.
Om dat allemaal overzichtelijk te houden, is een goede structuur in je folders en disks onontbeerlijk. Anders zit je met zoveel data her en der verspreidt, dat je niet meer weet wat waar zit. Resultaat: dubbels, dubbels en dubbels. En dat kost geld aan opslag, aan tijd, aan storage en aan bandbreedte (want alles moet geupload worden naar de cloud).
Data brengt dus werk met zich mee. Vroeger hadden we ocharme 500MB opslagcapaciteit en daarmee was de kous af. Vandaag zijn terabytes goedkoper dan ooit en staan we niet meer stil bij een gigabyte’je meer of minder. Alles netjes een plaats geven is belangrijk en houdt de boel handelbaar, maar wat ik nog veel liever zou hebben, is een complete indexering van al mijn data.
Indexeer al mijn bestanden. Dan kan ik zoeken op filename en *BOEM* – daar is mijn file. Maar ik wil meer dan dat. Ik wil dat ook alles geïndexeerd word op content. Ik wil niet al mijn filenames onthouden, dat is onbegonnen werk! Maar als ik over een bepaald onderwerp iets zoek, dan kan een index die ook in bestanden kijkt, mij serieus helpen.
Voeg daar nog meer metadata aan toe zoals tijdstippen, exif data, locatie gegevens,… en ga zo maar door, en je krijgt een systeem dat al die data kan doen samenvallen en een correlatie kan aanbieden aan de gebruiker.
Dat zou ik graag hebben, thuis. Dat zou het gemakkelijk maken. En dat bestaat bij mijn weten nog niet voor de consumer markt. Er bestaan wel softwares die dat doen, maar die zijn niet cross-platform, cross-storage-device, cross-… dus dat is niet helemaal wat ik zoek.
Tot wanneer dat mogelijk is, zit er niks anders op dan een goede structuur aanhouden en een nette “flow” te respecteren voor mijn data. Alles heeft zijn plaats, zijn folder, zijn bestemming. Door dat systeem consequent toe te passen, kan ik erg snel iets terugvinden, maar het blijft een taak om dat systeem netjes te volgen.
Hoe doet u dat, al uw data een plaats geven? Welk systeem gebruikt u? Welke software? Welke backups? Neemt u überhaubt wel backups? Consequent? Ik ben eens curieus.

SATA oftewel Serial ATA is verleden tijd. Misschien nog niet direct op de consumer-markt, maar op enterprise level zijn SATA harde schijven op sterven na dood.
Net zoals FATA in het verleden verdween, net zoals FC ook meer en meer een rariteit wordt, zal ook SATA verdwijnen. SAS – Serial Attached SCSI – is betaalbaar geworden waardoor het ook zijn weg vindt naar de lower tier afdeling.
Vandaag bevatten storage systemen SAS (of soms FC) schijven voor de high performance tiers (of SSD’s maar die kosten nog altijd hopen geld) en SATA schijven voor de lower tiers en grote capaciteit (denk 2 of 3TB).Die laatste worden dan gebruikt voor archivering (al zijn daar veel betere oplossingen voor – zoals HDS HCP) of voor backup to disk om dan later naar tape door te sluizen.
SAS zit vandaag al aan 900GB op 10.000RPM en 600GB op 15.000RPM. 2TB SAS is ook beschikbaar, weliswaar op 7.200RPM. SATA schijven zijn altijd 7.200RPM. Een SAS vs een SATA schijf met dezelfde capaciteit en RPM presteert ongeveer 20% sneller. Combineer dat met prijzen die meer en meer vergelijkbaar worden en het wordt logisch waarom SAS stilletjes aan SATA vervangen zal.
IOPS is key. Meer voor minder. Zo simpel is het.

De laatste jaren is er duidelijk een verschuiving gebeurd op gebied van storage  in de IT-wereld (eigenlijk zie je die verschuiving overal hoor, maar aangezien ik zelf in die storage wereld speel, pas ik mijn uiteenzetting daarop toe).
Vroeger ging de discussie over IOPS, over front-end poorten, over FC-disks, over storage processoren,… kortom hardware-technische oplossingen.
Vandaag is dat nog altijd belangrijk, begrijp me niet verkeerd, maar de focus is verschoven. Vandaag gaat de discussie over een “file, content & archive” platform. Een manier om al die (ongestructureerde) data die altijd maar blijft toenemen, weg te schrijven. Actieve data op tier-1 storage, statische data naar een archief. De technische specs en features zijn “an end to a mean” – ze moeten de wensen faciliteren, hoe ze het doen is eigenlijk minder belangrijk.
Het resultaat moet zijn dat de primary – en dus dure – storage niet constant uitgebreid moet worden, dat de backup windows naar omlaag kunnen (gedaan met dag & nacht backuppen) en dat de totale kostprijs van al die data retentie naar omlaag kan.
Weliswaar zonder in te boeten aan functionaliteit! Data moet sneller dan ooit toegankelijk zijn, op zo een makkelijk mogelijke manier, liefst van al door de eindgebruiker, zonder tussenkomst van “IT”. TCO en RTO moeten naar omlaag, performance en easy-of-use moeten naar omhoog.
Waar vroeger de discussie gebeurde met “de mannen van den IT” die dan tegen de “business” vertelden hoe hun data bewaard zou worden, gebeurt de discussie nu met de “business”. De applicatieve kant van het verhaal vertelt wat ze verlangen, wat ze nodig hebben en hoe ze het willen en “de mannen van den IT” moeten zich daar naar schikken.
Een uitdaging? Uiteraard. Maar niet onoverkomenlijk hoor. Het moeilijkste stuk is de mind-change. Mensen uit hun comfort-zone halen en out-the-box-thinking toepassen.
Toch?

Gisterennamiddag mijn eerste “echte” Hitachi Data Systems examen afgelegd. Voor de verandering geen Pearson Vue (zoals ik gewoon ben van EMC, VMware), maar wel Prometric.
Een examencentrum vinden dat nog een plaatsje had op vrijdagnamiddag bleek niet zo evident, maar uiteindelijk kon ik terecht bij Globalknowledge te Mechelen, een locatie die ik al meermaals eerder bezocht voor Microsoft opleidingen.
Ik heb in het verleden al heel wat examens afgelegd, maar nooit eerder een HDS examen. De eerste keer is altijd afwachten over hoe de vraagstelling gebeurt bij een bepaalde vendor en dat geeft altijd dat ietsiepietsie meer stress ;-).
Achteraf bekeken onnodig, want ik ben geslaagd in het Hitachi Data Systems – Storage Foundations – Modular Exam (HH0-120) met een score van 85%. De minimum score bedroeg 65%. Het examen bestond uit 60 vragen en ik had er 51 juist.
Om te zeggen dat ik tevreden ben met deze mooie afsluiter van 2011 (al ga ik volgende week wel werken, uitgezonderd vrijdag).
En ja, zoals altijd is het ene nog niet achter de rug of het volgende examen loert al om de hoek. Information Technology really is a never ending story… but that’s why I joined the rangs in the first place :-).

Older posts

© 2018 Unexpected.be

Theme by Anders NorenUp ↑