Unexpected.be

Telling stories for a living

Search results: "RAID" (page 1 of 2)

RAID Is (Almost) Dead

Vandaag is RAID (Redundant Array of Independent Disks) een vorm van data protectie waarop elk enterprise storage systeem op terugvalt. RAID beschermt je data voor fysisch falen van een harde schijf (of meerdere harde schijven). Het is dus géén alternatief op een backup-oplossing: als je gegevens verwijdert of een virus infecteert je bestanden, dan zal RAID daar niets aan veranderen.
Zelfs oplossingen voor consumenten ondersteunen RAID om “dataloss” te voorkomen, weliswaar in minder varianten dan de professionele oplossingen. De meeste thuisproducten ondersteunen RAID0 (helemaal geen protectie, wel meer performance) en RAID1 (vooral bescherming, maar tegen een hoge prijs) terwijl de iets duurdere varianten ondersteuning bieden voor RAID5.
Om mijn punt van deze blogpost te verduidelijken, wil ik graag het RAID1 voorbeeld gebruiken. RAID1 oftewel “Mirroring” betekent dat je voor elke harde schijf een tweede exemplaar hebt dat dezelfde data bevat als het eerste exemplaar. In geval dat de eerste schijf faalt, dan neemt de tweede het direct over (dus zonder onderbreking). Bij zo een incident vervangen we de defecte schijf met een nieuw, leeg exemplaar en zal de computer van het storage systeem alle data van de nog werkende schijf kopiëren naar de nieuwe, lege schijf om op die manier een nieuwe RAID1 set te creëren.
Het spreekt voor zich dat hoe groter de capaciteit van de schijven is, hoe langer dat kopieerproces duurt. De “catch” zit hem in het feit wanneer de primaire schijf faalt alvorens dat kopieerproces helemaal klaar is: als die situatie zich voordoet, heb je “dataloss”. In dat geval mag je hopen dat je een goede backup hebt of je gegevens zijn voor goed verdwenen.
Voor kleine, snelle schijven van 300GB die aan 15,000 toeren per minuut roteren is zo een “copy job” relatief snel geklaard. Vandaag hebben we echter al 3TB schijven ter beschikking die roteren aan 7,200 toeren per minuut. Het spreekt voor zich dat zo een schijf kopiëren meer tijd in beslag zal nemen (want meer data en tragere rotatiesnelheid) en daardoor is de kans op dataloss statistisch gezien groter.
Als we Seagate (een van de grootste fabrikanten van harde schijven op wereldvlak) mogen geloven, dan zijn 100-300TB harde schijven binnen een jaar of tien realiteit. Als ik vertel dat een “rebuild”, want zo noemen we een RAID set die zichzelf herstelt, van een RAID5 volume ongeveer 1 dag per TB nodig heeft, dan zou een rebuild van een 300TB harde schijf dus ongeveer 300 dagen in beslag nemen. De kans is zéér reëel dat er in die tijdspanne nog een harde schijf faalt, met als gevolg “dataloss”. En aangezien we dan werken met 300TB schijven, is een verlies van 1PB (1PB = 1,000TB = 1,000,000GB) aan data zeker realistisch. Ik moet niet stipuleren dat 1PB aan dataloss zo goed als meestal gelijk staat met een serieus probleem in een bedrijf…
Kortom: RAID als bescherming tegen het fysisch falen van een harde schijf is op het einde van zijn carrière. Storage vendors (zoals Hitachi Data Systems) zijn vandaag dus al bezig met hoe ze zo een datasets kunnen beschermen en we gaan dus nog boeiende tijden tegenmoet in de storage wereld.
Wordt zonder enige twijfel vervolgd…

SAN

Dit is een vervolgpost op een eerdere post – Shared Storage.
SAN – Storage Area Network – is de meest pure vorm van storage die je kan verkrijgen. In de volksmond zegt men “SAN” tegen de shared storage omgeving wanneer men spreekt over een “block-based” storage oplossing. Om uit te leggen wat daarmee bedoeld wordt, spoelen we terug naar onze computer thuis.
Als je een harde schijf in je computer installeert, dan kan je daar op zich weinig mee doen. Die schijf moet geformateerd worden zodat het besturingsysteem (oftewel OS van Operation System) ze herkent als opslagmedium, waarna er een bestandsysteem op gemaakt kan worden (vanaf nu file-system).
Op het moment dat de harde schijf in de computer zit en geformateerd is, is het een “block-device”. Het OS ziet een opslagmedium, maar het kan er niet van lezen of naar schrijven omdat er geen file-system op zit.
Een file-system is praktisch altijd gelinkt aan het OS: Windows gebruikt vandaag NTFS (NT File System en NT verwijst naar Windows NT, het allereerste “professioneel” OS van Microsoft).
Vroeger had je op Windows ook FAT16/32, wat je nog kan tegenkomen als je bv. een USB-stick wil formatteren. Apple gebruikt dan weer MAC OS Extended op hedendaagse systemen. En zo heeft elk OS zijn eigen variant van een file-system, die zo goed als nooit compatibel zijn onderling.
Hieruit kan je concluderen dat een applicatie of zelfs een OS nooit “rechtstreeks” naar een SAN kan schrijven. Er moet eerst een file-system aangemaakt worden alvorens er bestanden weggeschreven / gelezen kunnen worden van de SAN.
De SAN bestaat dus uit X aantal harde schijven + controllers die de intelligentie van het systeem uitmaken. Met die controllers (en de bijhorende management software) gaan we een aantal van die harde schijven bundelen in een groep die ervoor zorgt dat wanneer er een harde schijf stuk gaat, er automatisch een reserve exemplaar in de plaats komt zonder dat er data verloren gaat.
Deze configuratie noemen we een RAID-groep (Redundant Array for Independent Disks) en er bestaan verschillende varianten met elk zijn voor- en nadelen. Op dit moment is dat echter onbelangrijk en ga ik daar niet verder op in.
Nu hebben we dus een RAID-groep met daarin X aantal harde schijven. Op die groep gaan we een “virtuele” harde schijf maken en dat noemen we een Logical Unit (LU). Soms wordt dat ook een LUN (Logical Unit Number) genoemd, maar technisch gezien wordt een LU pas een LUN wanneer ze aangeboden wordt aan een server.
Ook dat maakt weinig uit op dit moment, zo lang het duidelijk is dat we op die “fysische” groep van schijven (RAID-groep) een “virtuele” schijf gemaakt hebben die even groot is als de som van de fysische schijven in de RAID-groep.
Kanttekening:

  • De “virtuele” schijf moet niet even groot zijn als de totale som, maar is maximaal even groot + best practise zegt dat je 1 “virtuele” schijf maakt per RAID-groep (waarom leg ik later wel uit)
  • De “virtuele” schijf is eigenlijk niet gelijk aan de totale som van de fysische schijven in de RAID-groep omdat je 1 of meerdere schijven niet kan gebruiken omdat die er voor zorgen dat je data niet verloren is wanneer er een schijf stuk gaat. Voor nu is dat echter niet belangrijk en gaan we gewoon van een simpele 1-op-1 stelling uit om alles high-level te kaderen

Het is de “virtuele” schijf oftewel LU(N) die we via een storage-netwerk (SAN, remember?) aan de server aanbieden. De server ziet die LU(N) dan alsof er in de server zelf een harde schijf is toegevoegd. Met andere woorden – het OS moet die LU(N) formatteren en er een file-system op plaatsen alvorens de applicaties er iets mee kunnen doen. En dat is in essentie wat een SAN is / doet en waarom we dat een “block-based” storage platform noemen.
Nog interessant om weten: dat “netwerk” waarmee de SAN aan de servers gekoppeld is, is meestal een glasvezel netwerk (FC – Fibre Channel) dat vandaag tot 8Gb/s aankan. Anderzijds is er ook de mogelijkheid om over het IP-protocol te werken en dan spreken we van een iSCSI SAN in plaats van een FC-SAN. iSCSI kan in 1Gb/s of 10Gb/s aangeboden worden.
Typisch zie je iSCSI in kleinere omgevingen of omgevingen waar men al zwaar geïnvesteerd heeft in een IP-netwerk. Een FC-SAN vereist een FC-netwerk met speciale switches, waardoor de kostprijs ook hoger ligt.
Hopelijk is de term SAN als variant van Shared Storage nu duidelijker? Zoals gewoonlijk zijn vragen of feedback welgekomen in de comments hieronder! Next up: NAS oftewel Network Attached Storage.

Homelab Upgrade

Vandaag mezelf nog eens nuttig gemaakt in het homelab: VMware vSphere 5.1 deploy’en op mijn server en mijn VM’s terug uploaden naar de nieuwe datastores. De vorige waren gescratched sinds mijn “ervaringen” met iOmega en het was er nog niet van gekomen om alles terug op te zetten zoals gepland.
Met een nieuw project waarvoor ik thuis ook “hands-on” moet kunnen werken, heb ik uiteraard een VMware omgeving nodig en had ik dus het uitgelezen excuus om er werk van te maken. Vanaf vandaag draait er in mijn homelab een heus Hitachi Content Platform :-).
Dat homelab upgrade’je zal ook van pas komen bij mijn plan om de komende maanden mijn VMware VCAP5-DCA voor te bereiden. En daar heb je echt wel hands-on ervaring voor nodig…
Kortom – genoeg om me mee bezig te houden. Eens alles up & running is, geef ik een jullie een zicht op wat een Content Platform is en kan betekeken voor een bedrijf.
Om deze update af te ronden, een korte “view” op het huidige homelab:

  • “Homemade” server met Intel quadcore 2.4GHz CPU
  • 8GB RAM (kom ik mee toe omdat ik niet zoveel VM’s tegelijk draai)
  • 3 x Intel 1Gb/s NIC
  • 64GB Crucial SSD voor caching in VMware
  • iOmega Storcenter IX4-200D NAS met 4x1TB disks (2.7TB usable met RAID5)
  • FreeNAS “homemad” NAS met in totaal 6TB usable capaciteit (ZFS als onderliggend filesystem)
  • NetGear 24-poorts Gigabit switch voor de bekabeling doorheen het huis + lokaal bij server 2 x 6-port 1Gb/s managed switches
  • In de garage nog een mobiele rack met 3 x Dell Poweredge servers (maken veel lawaai dus garage) die eveneens op de gigabit backbone in het huis kan geplugged worden (gebruik ik vooral als ik meerdere ESX hosts nodig heb voor HA / FT / VMotion tests

NAS Troubles II

Ondertussen is mijn iOmega IX4-200D niet veel meer dan een heel erg dure “presse-papier”. Het ding staat hier, maar het staat al een tijdje uitgeschakeld en ik vertrouw het niet (meer) om er data op te zetten die ik nergens anders heb staan (zelfs met RAID5 disk-protection).
In tussentijd zijn er nog wat mails op en af gegaan tussen mezelf en iOmega Support die eigenlijk nog altijd van ermbarmelijk laag niveau is. Over mijn data terughalen wordt er al lang niet meer gesproken, maar sinds de updates van de firmware enz die ze me laten uitvoeren hebben, wil het “ding” niet meer van shutdown doen.
Als je de NAS via de web-interface of via de fysieke power-off knop vraagt om zichzelf netjes uit te schakelen, dan krijg je de melding dat hij ermee bezig is (de web-interface gaat op non-actief) en het display op de NAS blijft tot in de eeuwigheid staan op het power-off logo. Vroeger kreeg je dit heel effe te zien, waarna het toestel zich uitschakelde. No more dus.
Oplossing van iOmega Support: kan je eens de volumes deleten (lees: RAID weghalen en opnieuw aanmaken waardoor alle data OPNIEUW weg is – moest ik die er al terug opgezet hebben) en ook de ingebouwde media server eens uitschakelen. Die laatste zorgt ervoor dan mediaplayers die de NAS gebruiken als storage platform, een index geserveerd krijgen van de NAS met wat er op de disks staat om zo dus veel sneller te navigeren.
Tot op heden (we zijn nu enkele weken na die laatste support vraag) is de goesting om mij er mee bezig te houden serieus zoek. Ik ben het beu om van het kastje naar de muur gestuurd te worden met oplossingen die eerder weg hebben van “try & fail” dan van echte support oplossingen. Een zoektocht op Google geeft trouwens aan dat ik niet de eerste ben met dit probleem en dat het blijkbaar gerelateerd is aan de firmware van de harde schijven (die ik moest upgraden van iOmega Support dus).
Op hun eigen support site is er niks terug te vinden… straffe toeren. Het huidig advies om geen zuurverdiend geld te spenderen aan iOmega storage blijft voorlopig staande. Mijn data is nog altijd met de noorderzon verdwenen en na de verschillende stappen van de helpdesk heb ik er nu nog een probleem bij gekregen…
Wordt vervolgd…

Mijn iOmega IX4-200D NAS heeft me kopzorgen bezorgd! Er was ten huize Unexpected een stroompanne, waardoor een van de schijven in de RAID5 array eruit vloog. Geen erg, een rebuild (automatisch) lost dat op en klaar is kees.
Spijtig genoeg besloot mijn iOmega StorCenter er net op dat moment de brui aan te geven en mij te melden dat er nog een schijf gefaald had (tijdens de rebuild). Resultaat: data-loss.
Het ding gereboot en opeens zegt ie dat er vier nieuwe disks in de NAS zitten, maar dat er nog oude data op zit. En of ik wil confirmeren dat ze gewist mogen worden om een nieuwe RAID5 groep te maken! Ik denk het niet!
iOmega (EMC dus eigenlijk) support ingeschakeld en als enige “oplossing” gekregen: “probeer nog eens een stroomonderbreking te forceren, misschien springt ie dan terug in “rebuild mode”. Hallo?!! Dit is géén “home” NAS, maar een SMB-oplossing. Support?
Ik weet dat er SSH-toegang op dat ding zit en aangezien het op Linux draait, moet er zeker een commando zijn om dat rebuild-proces te herstarten, maar iOmega trekt zijn staart in en verwijst naar een “data recovery company”. Bedankt voor niets iOmega en EMC!
Uiteraard heb ik backups (lokaal en in de “cloud”) maar ik zou veel liever die data gewoon terug online krijgen dan dat ik 3TB aan data moet gaan restoren.
Na eens serieus mijn gedacht te zeggen tegen de support, is het laatste voorstel dat ze mij SSH-toegang willen geven (op mijn eigen NAS dus!) als ik zelf kennis heb om het probleem op te lossen… huh? Ze willen me dus toegang geven tot de Linux-shell, maar voor de rest moet ik mijn plan trekken en zelf de know-how hebben (voor een custom OS dat ze zelf gemaakt hebben dus).
Thanks but no thanks gasten. Ondertussen al speciale NAS-recovery software op de disks losgelaten (door ze in een gewone PC in te bouwen) en 90% van de data is gerecupereerd via dat systeem (dat ik in een latere blogpost nog ga toelichten).
Zo simpel is dat dus beste iOmega / EMC support afdeling. Gelukkig ben ik wel technisch aangelegd, want een “gewone” gebruiker zou pech hebben. Niet de support die ik verwacht voor een NAS-oplossing die op SMB’s gericht is en die meer dan 1200€ gekost heeft.
Wordt vervolgd…

Hoe meer data je hebt, hoe meer de noodzaak voor een goed systeem om alles een plaats te geven. Backups, documenten, foto’s, bookmarks, text-files, slidedecks,… you name it. De tijd van megabytes is al lang vervlogen. Zelfs gigabytes beginnen geschiedenis te worden. Vandaag, zelfs in “consumer” omgevingen – lees: in je eigen huis – zijn terabytes al schering en inslag.
Ik heb twee laptops: mijn persoonlijke Macbook en een ThinkPad van de werkgever. Daar begint het probleem al. Ik wil graag al mijn werkgerelateerde documenten  beschikbaar hebben op mijn Macbook, maar ook op mijn iPhone of iPad bijvoorbeeld. Als ik ‘s avonds aan iets denk of ik wil nog snel een document of presentatie overlopen, dan heb ik geen zin om mijn ThinkPad te gaan zoeken, op te starten en te wachten. Dan wil ik gewoon mijn iPad van de salontafel pakken en dat document openen.
Vroeger werd zo iets opgelost met zaken doormailen. Of op een USB-stick zetten. Maar dan zit je met verschillende versies van een bestand, met alle gevolgen vandien. Corrupte files (ik denk aan “Available Offline” van Windows – de slechtste uitvinding ooit), niet meer weten welke versie de juiste is, de verkeerde versie meehebben,…
Om dat euvel op te lossen, gebruik ik “de Cloud”. In mijn geval is die cloud DropBox (en in beperkte mate iCloud en Google). Dat cloud-gebeuren lost mijn probleem van verschillende versies her en der op. Ik moet ook slechts één “file repository” backuppen. Win-win dus.
Maar DropBox is niet alles uiteraard. Mijn werklaptop wordt niet verder gebackupped. Alles wat van belang is, zit in mijn eigen “private cloud”, de rest – lees: OS en applicaties – kan mij gestolen worden. Als mijn ThinkPad sterft, kapot gaat, gestolen wordt,… is het gewoon een kwestie van een nieuwe ThinkPad te bestellen en mijn cloud applicatie erop te installeren.
Mijn Macbook zit naast dat cloud-gebeuren, wel nog verwikkeld in een backup structuur. Mijn Macbook bevat ook mijn muziek, mijn foto’s, mijn hebben en mijn houden zeg maar. Documenten zitten in de cloud, maar de “media” niet. Of toch niet in DropBox en consoorten, want daarvoor is mijn storage capacity daar veel te kleinschalig.
Neen. Mijn Macbook stuurt in eerste instantie alles naar de USB-schijf met TimeMachine van Apple. Dat is mijn eerste toevluchtsoord in geval van nood. Daarnaast wordt er elke nacht een “smart copy” gemaakt via Super Duper. Smart copy impliceert dat enkel de eerste backup een full copy is en dat elke daarop volgende backup in feite bestaat uit delta’s. Sommige backup toepassingen noemen dat ook wel “incremental forever”.
Die Super Duper backup gaat naar een FreeNAS netwerk opslag met een capaciteit van om en bij de 4TB (ZFS als onderliggend filesystem).
Als derde vangnet heb ik een kopie van alles wat echt belangrijk is (een iTunes backup, een LightRoom backup,…) ook gekopieerd naar mijn iOmega StorCenter, eveneens een NAS box. RAID5 voor de disk-config, in totaal 4TB raw capacity, 2,7TB usable capacity. Die backups zijn een manueel gebeuren en doe ik gemiddeld eens per maand, meer als ik veel nieuwe data op de Mac heb gedumpt.
Lokaal is mijn backup systeem dus meer dan redundant, maar dat was nog niet genoeg. Wat als mijn huis in vlammen op gaat? Of wat als er dieven over de vloer komen die alles meesleuren, ook mijn backup devices? Oplossing? De cloud natuurlijk! De volledige Macbook wordt opnieuw permanent naar de cloud gestuurd via CrashPlan. Ook hier kan je spreken over “incremental forever” backups, maar daarop nog eens deduplicatie zodat de upload naar de cloud (de delta’s van daarnet) zo klein mogelijk is.
Om dat allemaal overzichtelijk te houden, is een goede structuur in je folders en disks onontbeerlijk. Anders zit je met zoveel data her en der verspreidt, dat je niet meer weet wat waar zit. Resultaat: dubbels, dubbels en dubbels. En dat kost geld aan opslag, aan tijd, aan storage en aan bandbreedte (want alles moet geupload worden naar de cloud).
Data brengt dus werk met zich mee. Vroeger hadden we ocharme 500MB opslagcapaciteit en daarmee was de kous af. Vandaag zijn terabytes goedkoper dan ooit en staan we niet meer stil bij een gigabyte’je meer of minder. Alles netjes een plaats geven is belangrijk en houdt de boel handelbaar, maar wat ik nog veel liever zou hebben, is een complete indexering van al mijn data.
Indexeer al mijn bestanden. Dan kan ik zoeken op filename en *BOEM* – daar is mijn file. Maar ik wil meer dan dat. Ik wil dat ook alles geïndexeerd word op content. Ik wil niet al mijn filenames onthouden, dat is onbegonnen werk! Maar als ik over een bepaald onderwerp iets zoek, dan kan een index die ook in bestanden kijkt, mij serieus helpen.
Voeg daar nog meer metadata aan toe zoals tijdstippen, exif data, locatie gegevens,… en ga zo maar door, en je krijgt een systeem dat al die data kan doen samenvallen en een correlatie kan aanbieden aan de gebruiker.
Dat zou ik graag hebben, thuis. Dat zou het gemakkelijk maken. En dat bestaat bij mijn weten nog niet voor de consumer markt. Er bestaan wel softwares die dat doen, maar die zijn niet cross-platform, cross-storage-device, cross-… dus dat is niet helemaal wat ik zoek.
Tot wanneer dat mogelijk is, zit er niks anders op dan een goede structuur aanhouden en een nette “flow” te respecteren voor mijn data. Alles heeft zijn plaats, zijn folder, zijn bestemming. Door dat systeem consequent toe te passen, kan ik erg snel iets terugvinden, maar het blijft een taak om dat systeem netjes te volgen.
Hoe doet u dat, al uw data een plaats geven? Welk systeem gebruikt u? Welke software? Welke backups? Neemt u überhaubt wel backups? Consequent? Ik ben eens curieus.

Backups zijn kritisch en hun belang is van groot belang, niet alleen voor bedrijven, maar hoe langer hoe meer ook voor particulieren. Meer en meer mensen bewaren hun “leven” op hun computer via digitale foto’s, digitale video’s, documenten, rekeninguitreksels, klantengegevens, boekhouding,… you name it.
Vroeg of laat gebeurt er iets waardoor je al die belangrijke data voorgoed kwijt bent. Overstromingen, brand, diefstal, user mistake,… the sky is the limit als het op vlak van mogelijke rampen aankomt, maar dat je een van die zaken tegenkomt is een kwestie van tijd.
Of je nu op Windows, op Mac OS, op Linux of nog een ander besturingssysteem werkt, backups heb je altijd nodig. Hoe vaak ik al mensen in paniek aan de telefoon had met de vraag of ik hun foto’s nog kon redden van een defecte schijf, ik kan de tel niet meer bijhouden. De ene keer kan ik met succes alles terughalen, de andere keer hebben ze pech en is de enige mogelijke optie (die niet altijd succesvol is) de schijf opsturen naar een gespecialiseerde firma die dan ettelijke duizenden Euro’s aanrekent om de schijf in kwestie te ontleden en een data recovery te doen.
En zeg nu zelf, wie gaat er een paar duizend Euro op tafel leggen (willen of kunnen) voor die foto’s van dat familiefeestje terug te halen? Meestal laten de mensen het zo en pakken ze het verlies er maar bij…
Gelukkig zijn er genoeg betaalbare oplossingen om bovenstaande situaties te vermijden! De goedkoopste is een externe harde schijf naar waar je op regelmatig tijdstip je belangrijke data overzet. Als Apple gebruiker maak ik hiervoor gebruik van Time Machine voor een backup per uur. Daarnaast neem ik ook nog wekelijks een “image” backup met behulp van SuperDuper!.
Time Machine is handig voor bestanden terug te halen, maar kan ook gebruikt worden bij een herinstallatie. SuperDuper! images zijn niet alleen bootable, maar ze geven je ook je Mac terug zoals die op het moment van backup was. Naast het grote voordeel van bootable zijn, zorgen image backups ook voor snelle restores (bijvoorbeeld als je je harde schijf vervangt met een nieuw, groter exemplaar).
Time Machine in combinatie met SuperDuper! geeft al een zeer goede backup policy naar externe schijven, maar je zit opnieuw met een “SPOF” oftewel Single Point Of Failure: de externe schijf in kwestie! Om dit te voorkomen, kopieer ik mijn data ook nog eens naar mijn NAS (Network Attached Storage) die zijn schijven in een RAID5 opstelling geconfigureerd heeft.
Om nu dataverlies te ondergaan moet mijn primaire harde schijf (in mijn geval SSD) het begeven, moet de externe harde schijf de pijp aan Maarten geven én moet mijn NAS er ook mee ophouden.
Onmogelijk hoor ik u denken? Fout! Wat bij een overstroming of een brand? Of wat als er dieven over de vloer komen die al je computermateriaal meepakken?
Backups naar DVD’s is geen optie: te klein, duurt te lang en DVD’s (en andere optische media) verliezen na een tijd hun data (enkele jaren, maar toch). Backup naar tapes is een beetje passé en eerlijk gezegd, voor thuis vind ik dat totaal niet gebruiksvriendelijk en goedkoop is het ook al niet.
Recent is er echter een nieuwe mogelijkheid waar iedereen die een beetje in de tech-wereld thuis is, zeker en vast al van gehoord heeft: backups naar de “cloud”.
Met de “cloud” bedoelt men eigenlijk een externe provider. Je huurt ergens storage, je stuurt je data daarnaartoe via het Internet en klaar is kees. De externe provider moet zorgen voor redundantie en veiligstelling van je data.
Vroeger was zo iets ondenkbaar wegens veel te beperkte internetabonnementen in ons Belgenlandje, maar recentelijk zijn de limieten hoog genoeg om zulke zaken mogelijk te maken. Het staat je trouwens ook vrij om niet al je data naar de “cloud” te backuppen, maar je bijvoorbeeld te beperken tot je fotoarchief of je werkdocumenten om maar enkele voorbeelden te noemen.
Als je toch al je data online wil backuppen, dan kan je in plaats van alles te uploaden, ook je data op een externe schijf kopieren en die schijf opsturen naar je cloud backup provider. Zij kopieren de data dan naar je storage en daarna doe je de “updates” van je dataset via het gekende kanaal. Simple!
De cloud backup is tevens ook je “last resort”. Eerst probeer je restores te doen van je lokale backups en pas als die onbruikbaar zijn, ga je beroep doen op je cloud backup. Als je in dat laatste geval een volledige restore van bijvoorbeeld 200GB wil, kan je (tegen betaling welteverstaan) een externe schijf laten opsturen via koerier met daarop al je data. Kwestie dat je niet eerst 200GB moet downloaden alvorens je je gegevens terug hebt.
Mijn eerste “cloud” provider is Dropbox. Zowel de documenten van mijn werklaptop als die van mijn prive computers, zijn gehuisvest bij Dropbox. Al mijn documenten zijn dus eigenlijk al safe. Naast Dropbox (waar ik een abo van 50GB op heb notabene) heb ik sinds een tweetal maanden ook een abonnement op “Crashplan” waar mijn volledige Macbook zijn data naartoe stuurt.

Crashplan heeft een mooie interface, is zuinig op je resources, doet aan deduplicatie en compressie zodat je minder upload te verwerken krijgt, biedt unlimited storage aan en is daarnaast nog een van de goedkopere providers van cloud storage / backup. Plus ze kunnen je updates van je backups sturen via Twitter en andere sociale media en ze zijn zelf ook vertegenwoordigd op Twitter en reageren snel op vragen.
En ja, ik heb andere alternatieven getest zoals Backblaze en Mozy. Ik vond Crashplan beter werken en dus was de keuze snel gemaakt, maar mogelijk denk je er zelf anders over, dus testen is de boodschap. Crashplan laat ook toe om lokaal een backup te maken (als alternatief op bijvoorbeeld Time Machine) en in dat geval zal hij eerst een restore van die lokatie proberen te doen alvorens naar de “cloud” te gaan.
Er zijn nog veel meer mogelijkheden met Crashplan, maar check hun site voor al die details, ze leggen dat beter uit dan dat ik dat hier kan ;-). Weetje: ik betaal $50 per jaar om onbeperkt veel data naar de bewuste cloud te backuppen via Crashplan. Voor dat geld kan je nog geen extra externe schijf kopen die je dan bij vrienden of familie zou leggen als “offsite” backup oplossing.
Oh ja, en voor ik het vergeet: mijn Windows machines backuppen elke dag naar mijn Windows Home Server, kwestie dat ik ook die machines snel kan terugbrengen naar een werkende status ;-).
Conclusie: backups zijn belangrijk en een goed plan van aanpak is cruciaal om in tijden van miserie geen extra zorgen te hebben. Backups zijn zoals anti-biotica. Niemand neemt ze graag, maar iedereen die goed ziek is, is toch serieus content dat er een middel is om hen weer beter te maken.
Begin er vandaag mee, want morgen is het misschien te laat…

In het kader van de professionele bezigheid ben ik deze week bezig met het opzetten van een demo-omgeving voor een “Roadshow” waarbij we zoals de naam al doet vermoeden bij onze resellers een event organiseren waar zij dan hun klanten op uitnodigen.
Het is de bedoeling dat de reseller uit onze product portfolio kiest wat ze op hun event willen tonen aan hun klanten. Dit impliceert de noodzakelijke slide shows met bijhorende marketing / technische uitleg, maar ook demo’s van de betreffende producten.
Omdat de meeste van die producten niet performant geïnstalleerd kunnen worden op een laptop, gebruiken we een dedicated demo-systeem dat uit een HP C3000 chassis (Tower versie) bestaat met daarin een aantal HP ProLiant BL460C G1 blade-servers. Elke blade beschikt over een quadcore Intel Xeon E5450 CPU op 3GHz, 16GB RAM en een setje SAS-schijven in een RAID1 configuratie.

Het OS dat op elke blade-server komt te staan is vanzelfsprekend VMWare ESX. In dit geval heb ik gekozen om de nieuwste release, met name ESX 4.1 te gebruiken, meer bepaald de “Hypervisor” versie, beter gekend als ESX 4.1i.
Om alles beheerbaar te houden, gebruik ik VMWare VCenter om de ESX hosts te beheren of wat had u gedacht? En daar wringt het schoentje natuurlijk…
Om efficiënt te werk te gaan bij de opbouw van demo’s, hergebruik ik heel dikwijls mijn virtuele machines die thuis op de IX4 gebackupped staan. Tot nu toe heb ik altijd ESX 4.0 gebruikt voor mijn labs en daar hoort een VCenter 4.0 machine bij – tot hier geen probleem.
Echter, aangezien ik voor deze opstelling de nieuwe ESX 4.1 variant gebruik, dacht ik toch maar eventjes mijn VCenter 4.0 te hergebruiken en zo wat installatietijd uit te sparen. Mispoes. Alles lijkt te werken, zelfs het toevoegen van de ESX 4.1 hosts lukt… of toch voor eventjes. Enkele seconden na het toevoegen gaat het van kwaad naar erger, krijg je foutmeldingen en verliest de VCenter machine uiteindelijk voeling met de ESX host(s).
VMWare ESX 4.1(i) vereist VCenter 4.1. Punt. Dat is op zich geen probleem, want je kan de database en zo migreren. Het probleem is dat VCenter 4.1 enkel geschikt is voor een x64 OS en laat ik nu een x32 OS hebben op mijn bestaande VCenter VM.
Anyway, niets aan te doen:

  • Een nieuwe VM opzetten
  • Windows 2003/2008 x64 installeren
  • VMWare VCenter 4.1 installeren
  • ESX 4.1 hosts opnieuw toevoegen aan VCenter 4.1

En wonder boven wonder, alles werkt na deze procedure perfect. Het heeft mij enkele uurtjes meer werk gekost, maar nu weet ik het alvast voor de volgende keer.

In het kader van de professionele bezigheid ben ik deze week bezig met het opzetten van een demo-omgeving voor een “Roadshow” waarbij we zoals de naam al doet vermoeden bij onze resellers een event organiseren waar zij dan hun klanten op uitnodigen.


Het is de bedoeling dat de reseller uit onze product portfolio kiest wat ze op hun event willen tonen aan hun klanten. Dit impliceert de noodzakelijke slide shows met bijhorende marketing / technische uitleg, maar ook demo’s van de betreffende producten.

Omdat de meeste van die producten niet performant geïnstalleerd kunnen worden op een laptop, gebruiken we een dedicated demo-systeem dat uit een HP C3000 chassis bestaat met daarin een aantal HP ProLiant BL460C G1 blade-servers. Elke blade beschikt over een quadcore Intel Xeon E5450 CPU op 3GHz, 16GB RAM en een setje SAS-schijven in een RAID1 configuratie.

Het OS dat op elke blade-server komt te staan is vanzelfsprekend VMWare ESX. In dit geval heb ik gekozen om de nieuwste release, met name ESX 4.1 te gebruiken, meer bepaald de “Hypervisor” versie, beter gekend als ESX 4.1i.

Om alles beheerbaar te houden, gebruik ik VMWare VCenter om de ESX hosts te beheren of wat had u gedacht? En daar wringt het schoentje natuurlijk…

Om efficiënt te werk te gaan bij de opbouw van demo’s, hergebruik ik heel dikwijls mijn virtuele machines die thuis op de IX4 gebackupped staan. Tot nu toe heb ik altijd ESX 4.0 gebruikt voor mijn labs en daar hoort een VCenter 4.0 machine bij – tot hier geen probleem.

Echter, aangezien ik voor deze opstelling de nieuwe ESX 4.1 variant gebruik, dacht ik toch maar eventjes mijn VCenter 4.0 te hergebruiken en zo wat installatietijd uit te sparen. Mispoes. Alles lijkt te werken, zelfs het toevoegen van de ESX 4.1 hosts lukt… of toch voor eventjes. Enkele seconden na het toevoegen gaat het van kwaad naar erger, krijg je foutmeldingen en verliest de VCenter machine uiteindelijk voeling met de ESX host(s).

VMWare ESX 4.1(i) vereist VCenter 4.1. Punt. Dat is op zich geen probleem, want je kan de database en zo migreren. Het probleem is dat VCenter 4.1 enkel geschikt is voor een x64 OS en laat ik nu een x32 OS hebben op mijn bestaande VCenter VM.

Anyway, niets aan te doen:

– Een nieuwe VM opzetten
– Windows 2003/2008 x64 installeren
– VMWare VCenter 4.1 installeren
– ESX 4.1 hosts opnieuw toevoegen aan VCenter 4.1

En wonder boven wonder, alles werkt na deze procedure perfect. Het heeft mij enkele uurtjes meer werk gekost, maar nu weet ik het alvast voor de volgende keer.

Professioneel ben ik op regelmatige basis bezig met het opzetten van demo en POC (Proof Of Concept) omgevingen. In januari van dit jaar hadden we ook enkele demo booths op Storage Expo 2010 waardoor ik ondertussen een basis heb opgebouwd om snel een omgeving op te zetten.
Niet helemaal onverwacht gezien mijn interesse in virtualizatie, maak ik in 90% van de gevallen gebruik van een VMWare oplossing om mijn demo-omgeving op te bouwen. Met die wetenschap in het achterhoofd, zijn er in feite twee opstellingen mogelijk:
Wanneer rauwe rekenkracht ondergeschikt is:
– Lenovo ThinkPad R500
– Intel Core 2 Duo 2.0GHz
– 320GB HDD on-board + 48GB SSD via PC-Card slot + 500GB mobile HDD via USB 2.0
– 4GB RAM
– MS Windows 7 Ultimate
– VMWare Workstation 7
In dit geval draait alles op en rond mijn lokaal geïnstalleerde VMWare Workstation 7 virtualizatie software waarin ik mijn virtuele machines aanmaak. De VM’s (virtuele machine’s) met de meeste I/O plaats ik op de SSD, de overige machines op de mobiele schijf. Ik tracht zoveel mogelijk de interne harde schijf te sparen, want die is de grootste bottleneck in dit verhaal.
Dit “mobiele” labo gebruik ik vooral voor functionele demo’s waar je bepaalde features van een product wil laten zien. Performantie is van ondergeschikt belang, want daarvoor is er puntje twee, namelijk…
Wanneer performantie belangrijk is:
SUN X4275 server
– 64GB (of meer) RAM
– 2 x Intel QuadCore 2.26GHz
– 6 x 300GB SAS 15K HDD in RAID5 (RAID level hangt af van doel, soms RAID0,RAID10 of RAID50)
– 16GB Flash Disk (buffer voor bv. swapfiles)
– 8 x Gbit ethernet NIC
– 2 x Fibre-Channel HBA (4Gbit)
– VMWare vSphere Update 1

Bovenstaand “labo” is nog altijd mobiel, maar vanzelfsprekend minder mobiel dan mijn ThinkPad. Deze omgeving is dan ook eerder gericht op demo’s tijdens workshops, events, product launches,…

Hier is het OS van de machine in kwestie geen Microsoft variant, maar VMWare’s meest recente hypervisor – vSphere Update 1. Eenmaal dat vSphere geconfigureerd is, installeer (of beter gezegd, “upload” want ik recycleer mijn VM’s) ik de virtuele servers / workstations en kan de fun beginnen. Gezien de disk capaciteit, het overschot aan netwerkkaarten, de acht fysische CPU cores en niet te vergeten, het broodnodige RAM geheugen kan ik op dit platform zo goed als alles tonen wat ik wil.
Het management van de deze tweede omgeving gebeurt trouwens opnieuw via de ThinkPad, met behulp van de VMWare Infrastructure Client of “de VIC” voor de vrienden. De VM’s zelf configureer ik in eerste instantie via de console view, maar eenmaal het netwerk in orde is, verkies ik een simpele RDP connectie wegens voor de hand liggende redenen.
Voila, daarmee heb ik de basis van mijn testlabo’s uit de doeken gedaan. In de volgende artikels zal ik enkele concrete demo omgevingen uit de doeken doen dus stay tuned for more virtual geekness ;-).

Als serieus tevreden gebruiker van de iOmega StorCenter IX4-200D NAS, check ik regelmatig de nieuwigheden die iOmega op ons loslaat. Gisteren kondigden ze een nieuw product aan voor de SMB markt aan: de iOmega IX12-300R.

Zoals de naam al doet vermoeden bevat deze NAS appliance maximaal maar liefst twaalf harde schijven met een totale capaciteit van 4 tot 24TB (mijn IX4 heeft er vier schijven met een capaciteit van 4TB) en beschikt het over vier gigabit ethernetpoorten om de netwerkconnectiviteit te waarborgen.

ix12-300R.jpg

Het hartje van deze NAS bestaat uit een Intel Core2Duo processor en om dataloss te vermijden, kan je gebruik maken van RAID6. RAID6 zorgt ervoor dat je tot twee disk failures overleven alvorens je data verliest. Vanzelfsprekend zijn de power supplies ook redundant en hot-swapable.

Het duurste exemplaar met 24TB aan opslagcapaciteit, komt op ongeveer $10.000. Veel geld voor thuisgebruik, betaalbaar voor KMO’s en een mogelijke concurrent voor HP zijn MSA reeks.

Zijn er dan geen nadelen? Mogelijk wel natuurlijk. Zo blijft het de vraag of een enkele Intel Core2Duo processor genoeg paardekracht heeft om vier gigabit ethernet poorten en een hoop I/O te kunnen verwerken. Verder is er blijkbaar geen dubbele disk controller, waardoor je daar dus een “single point of failure” krijgt. En om het klaaggezang af te sluiten: ze gebruiken geen snelle SAS disks :-(.

Voor de volledigheid: zoals gewoonlijk is deze iOmega NAS volledig gecertifieerd voor gebruik als shared storage met VMWare, Citrix en Hyper-V.

En nu nog een gulle weldoener vinden die mij dit leuk speelgoed eens wil uitlenen…

« Older posts

© 2019 Unexpected.be

Theme by Anders NorenUp ↑