Telling stories for a living

Tag: Backup (Page 1 of 2)

Nog Een Laatste

Deze week een kleine “addendum” aan mijn home backup oplossing toegevoegd: Crashplan niet alleen naar de “cloud” laten backuppen, maar een tweede dataset naar een NAS “lokaal” laten backuppen. Niet omdat ik geen vertrouwen heb in het online gedeelte, maar wel omdat restores gewoon een pak sneller lokaal lopen.
Voor een enkele file hebben we geen issue. Wanneer ik een “total meltdown” van mijn Mac heb en een nieuwe koop, dan wil ik die 500GB liefst niet hoeven te downloaden. En ja, dat zou pas moeten nadat ook mijn Time Machine backups corrupt zouden zijn én wanneer mijn snapshot images die elke dag lopen ook niet meer te restoren vallen.
Concreet kan ik stellen dat ik een vierde (en voorlopig laatste) “tier” heb toegevoegd aan mijn backup schema.
Awesoommmmeee. /*end geek chit-chat*/

100.000.000 Years

Hitachi heeft een nieuwe manier bedacht om data op te slaan: steek de bits en bytes in een quartz glas. Hierdoor zou je je data “minstens” 100 miljoen jaar kunnen bewaren!
Voorlopig nog geen echt use-case, maar ze denken aan museu, kerken, overheid,… die zeker willen zijn dat bepaalde data nooit verloren gaat (of toch niet voor onze planeet vergaan is ;-)).
Check it.

Mijn iOmega IX4-200D NAS heeft me kopzorgen bezorgd! Er was ten huize Unexpected een stroompanne, waardoor een van de schijven in de RAID5 array eruit vloog. Geen erg, een rebuild (automatisch) lost dat op en klaar is kees.
Spijtig genoeg besloot mijn iOmega StorCenter er net op dat moment de brui aan te geven en mij te melden dat er nog een schijf gefaald had (tijdens de rebuild). Resultaat: data-loss.
Het ding gereboot en opeens zegt ie dat er vier nieuwe disks in de NAS zitten, maar dat er nog oude data op zit. En of ik wil confirmeren dat ze gewist mogen worden om een nieuwe RAID5 groep te maken! Ik denk het niet!
iOmega (EMC dus eigenlijk) support ingeschakeld en als enige “oplossing” gekregen: “probeer nog eens een stroomonderbreking te forceren, misschien springt ie dan terug in “rebuild mode”. Hallo?!! Dit is géén “home” NAS, maar een SMB-oplossing. Support?
Ik weet dat er SSH-toegang op dat ding zit en aangezien het op Linux draait, moet er zeker een commando zijn om dat rebuild-proces te herstarten, maar iOmega trekt zijn staart in en verwijst naar een “data recovery company”. Bedankt voor niets iOmega en EMC!
Uiteraard heb ik backups (lokaal en in de “cloud”) maar ik zou veel liever die data gewoon terug online krijgen dan dat ik 3TB aan data moet gaan restoren.
Na eens serieus mijn gedacht te zeggen tegen de support, is het laatste voorstel dat ze mij SSH-toegang willen geven (op mijn eigen NAS dus!) als ik zelf kennis heb om het probleem op te lossen… huh? Ze willen me dus toegang geven tot de Linux-shell, maar voor de rest moet ik mijn plan trekken en zelf de know-how hebben (voor een custom OS dat ze zelf gemaakt hebben dus).
Thanks but no thanks gasten. Ondertussen al speciale NAS-recovery software op de disks losgelaten (door ze in een gewone PC in te bouwen) en 90% van de data is gerecupereerd via dat systeem (dat ik in een latere blogpost nog ga toelichten).
Zo simpel is dat dus beste iOmega / EMC support afdeling. Gelukkig ben ik wel technisch aangelegd, want een “gewone” gebruiker zou pech hebben. Niet de support die ik verwacht voor een NAS-oplossing die op SMB’s gericht is en die meer dan 1200€ gekost heeft.
Wordt vervolgd…

Hoe meer data je hebt, hoe meer de noodzaak voor een goed systeem om alles een plaats te geven. Backups, documenten, foto’s, bookmarks, text-files, slidedecks,… you name it. De tijd van megabytes is al lang vervlogen. Zelfs gigabytes beginnen geschiedenis te worden. Vandaag, zelfs in “consumer” omgevingen – lees: in je eigen huis – zijn terabytes al schering en inslag.
Ik heb twee laptops: mijn persoonlijke Macbook en een ThinkPad van de werkgever. Daar begint het probleem al. Ik wil graag al mijn werkgerelateerde documenten  beschikbaar hebben op mijn Macbook, maar ook op mijn iPhone of iPad bijvoorbeeld. Als ik ‘s avonds aan iets denk of ik wil nog snel een document of presentatie overlopen, dan heb ik geen zin om mijn ThinkPad te gaan zoeken, op te starten en te wachten. Dan wil ik gewoon mijn iPad van de salontafel pakken en dat document openen.
Vroeger werd zo iets opgelost met zaken doormailen. Of op een USB-stick zetten. Maar dan zit je met verschillende versies van een bestand, met alle gevolgen vandien. Corrupte files (ik denk aan “Available Offline” van Windows – de slechtste uitvinding ooit), niet meer weten welke versie de juiste is, de verkeerde versie meehebben,…
Om dat euvel op te lossen, gebruik ik “de Cloud”. In mijn geval is die cloud DropBox (en in beperkte mate iCloud en Google). Dat cloud-gebeuren lost mijn probleem van verschillende versies her en der op. Ik moet ook slechts één “file repository” backuppen. Win-win dus.
Maar DropBox is niet alles uiteraard. Mijn werklaptop wordt niet verder gebackupped. Alles wat van belang is, zit in mijn eigen “private cloud”, de rest – lees: OS en applicaties – kan mij gestolen worden. Als mijn ThinkPad sterft, kapot gaat, gestolen wordt,… is het gewoon een kwestie van een nieuwe ThinkPad te bestellen en mijn cloud applicatie erop te installeren.
Mijn Macbook zit naast dat cloud-gebeuren, wel nog verwikkeld in een backup structuur. Mijn Macbook bevat ook mijn muziek, mijn foto’s, mijn hebben en mijn houden zeg maar. Documenten zitten in de cloud, maar de “media” niet. Of toch niet in DropBox en consoorten, want daarvoor is mijn storage capacity daar veel te kleinschalig.
Neen. Mijn Macbook stuurt in eerste instantie alles naar de USB-schijf met TimeMachine van Apple. Dat is mijn eerste toevluchtsoord in geval van nood. Daarnaast wordt er elke nacht een “smart copy” gemaakt via Super Duper. Smart copy impliceert dat enkel de eerste backup een full copy is en dat elke daarop volgende backup in feite bestaat uit delta’s. Sommige backup toepassingen noemen dat ook wel “incremental forever”.
Die Super Duper backup gaat naar een FreeNAS netwerk opslag met een capaciteit van om en bij de 4TB (ZFS als onderliggend filesystem).
Als derde vangnet heb ik een kopie van alles wat echt belangrijk is (een iTunes backup, een LightRoom backup,…) ook gekopieerd naar mijn iOmega StorCenter, eveneens een NAS box. RAID5 voor de disk-config, in totaal 4TB raw capacity, 2,7TB usable capacity. Die backups zijn een manueel gebeuren en doe ik gemiddeld eens per maand, meer als ik veel nieuwe data op de Mac heb gedumpt.
Lokaal is mijn backup systeem dus meer dan redundant, maar dat was nog niet genoeg. Wat als mijn huis in vlammen op gaat? Of wat als er dieven over de vloer komen die alles meesleuren, ook mijn backup devices? Oplossing? De cloud natuurlijk! De volledige Macbook wordt opnieuw permanent naar de cloud gestuurd via CrashPlan. Ook hier kan je spreken over “incremental forever” backups, maar daarop nog eens deduplicatie zodat de upload naar de cloud (de delta’s van daarnet) zo klein mogelijk is.
Om dat allemaal overzichtelijk te houden, is een goede structuur in je folders en disks onontbeerlijk. Anders zit je met zoveel data her en der verspreidt, dat je niet meer weet wat waar zit. Resultaat: dubbels, dubbels en dubbels. En dat kost geld aan opslag, aan tijd, aan storage en aan bandbreedte (want alles moet geupload worden naar de cloud).
Data brengt dus werk met zich mee. Vroeger hadden we ocharme 500MB opslagcapaciteit en daarmee was de kous af. Vandaag zijn terabytes goedkoper dan ooit en staan we niet meer stil bij een gigabyte’je meer of minder. Alles netjes een plaats geven is belangrijk en houdt de boel handelbaar, maar wat ik nog veel liever zou hebben, is een complete indexering van al mijn data.
Indexeer al mijn bestanden. Dan kan ik zoeken op filename en *BOEM* – daar is mijn file. Maar ik wil meer dan dat. Ik wil dat ook alles geïndexeerd word op content. Ik wil niet al mijn filenames onthouden, dat is onbegonnen werk! Maar als ik over een bepaald onderwerp iets zoek, dan kan een index die ook in bestanden kijkt, mij serieus helpen.
Voeg daar nog meer metadata aan toe zoals tijdstippen, exif data, locatie gegevens,… en ga zo maar door, en je krijgt een systeem dat al die data kan doen samenvallen en een correlatie kan aanbieden aan de gebruiker.
Dat zou ik graag hebben, thuis. Dat zou het gemakkelijk maken. En dat bestaat bij mijn weten nog niet voor de consumer markt. Er bestaan wel softwares die dat doen, maar die zijn niet cross-platform, cross-storage-device, cross-… dus dat is niet helemaal wat ik zoek.
Tot wanneer dat mogelijk is, zit er niks anders op dan een goede structuur aanhouden en een nette “flow” te respecteren voor mijn data. Alles heeft zijn plaats, zijn folder, zijn bestemming. Door dat systeem consequent toe te passen, kan ik erg snel iets terugvinden, maar het blijft een taak om dat systeem netjes te volgen.
Hoe doet u dat, al uw data een plaats geven? Welk systeem gebruikt u? Welke software? Welke backups? Neemt u überhaubt wel backups? Consequent? Ik ben eens curieus.

Een jaar terug heb ik me, na een omweg via Mozy, geabonneerd op Crashplan, een “backup to the cloud” oplossing.
 
Ergens vorige week kreeg ik een automatisch mailtje dat het tijd is om mijn abonnement te vernieuwen – ik had namelijk opgetekend voor één jaar, kwestie van alles te evalueren alvorens voor een langere periode in te schrijven.
 
Aangezien ik na een jaar gebruik erg tevreden ben van Crashplan, wou ik mijn aansluiting hernieuwen. Maar daar ging het mis… Hun website wou op geen enkele manier mijn kredietkaart(en) aanvaarden, hoewel ze perfect werken ;).
 
PayPal bieden ze niet aan dus had ik een probleem. En mijn aansluiting was op twee dagen van vervallen! Gelukkig wordt je data niet direct gedelete, maar kan je gewoon geen nieuwe backups of restores uitvoeren.
 
Ticket loggen bij de helpdesk dan maar. Na een uurtje al antwoord met de vraag of ik nogmaals kon proberen en screenshots sturen indien het nog niet zou lukken. Zo gezegd, zo gedaan. Probleem niet opgelost.
 
Beetje later opnieuw mailtje van de helpdesk met de melding dat ze mijn abonnement alvast voor een week verlengd hebben zodat ik zeker backups zou kunnen nemen terwijl ze naar een oplossing zochten. Top!
 
Daags nadien opnieuw mail: dat ze mij ofwel bellen om zo mijn kredietkaart te “billen” ofwel dat ik mijn PayPal gegevens mag doormailen en dat ze me dan zo een betalingsaanvraag zouden doorsturen.
 
Ik ben fan van PayPal dus zo verder gegaan. Een paar uurtjes later zat mijn nieuwe licentie in de mail.
 
Om maar aan te tonen dat goede support belangrijk is. Ik was al fan van Crashplan, maar na dit staaltje op maat gemaakte customerservice, zal dat zeker zo blijven!

Backups zijn kritisch en hun belang is van groot belang, niet alleen voor bedrijven, maar hoe langer hoe meer ook voor particulieren. Meer en meer mensen bewaren hun “leven” op hun computer via digitale foto’s, digitale video’s, documenten, rekeninguitreksels, klantengegevens, boekhouding,… you name it.
Vroeg of laat gebeurt er iets waardoor je al die belangrijke data voorgoed kwijt bent. Overstromingen, brand, diefstal, user mistake,… the sky is the limit als het op vlak van mogelijke rampen aankomt, maar dat je een van die zaken tegenkomt is een kwestie van tijd.
Of je nu op Windows, op Mac OS, op Linux of nog een ander besturingssysteem werkt, backups heb je altijd nodig. Hoe vaak ik al mensen in paniek aan de telefoon had met de vraag of ik hun foto’s nog kon redden van een defecte schijf, ik kan de tel niet meer bijhouden. De ene keer kan ik met succes alles terughalen, de andere keer hebben ze pech en is de enige mogelijke optie (die niet altijd succesvol is) de schijf opsturen naar een gespecialiseerde firma die dan ettelijke duizenden Euro’s aanrekent om de schijf in kwestie te ontleden en een data recovery te doen.
En zeg nu zelf, wie gaat er een paar duizend Euro op tafel leggen (willen of kunnen) voor die foto’s van dat familiefeestje terug te halen? Meestal laten de mensen het zo en pakken ze het verlies er maar bij…
Gelukkig zijn er genoeg betaalbare oplossingen om bovenstaande situaties te vermijden! De goedkoopste is een externe harde schijf naar waar je op regelmatig tijdstip je belangrijke data overzet. Als Apple gebruiker maak ik hiervoor gebruik van Time Machine voor een backup per uur. Daarnaast neem ik ook nog wekelijks een “image” backup met behulp van SuperDuper!.
Time Machine is handig voor bestanden terug te halen, maar kan ook gebruikt worden bij een herinstallatie. SuperDuper! images zijn niet alleen bootable, maar ze geven je ook je Mac terug zoals die op het moment van backup was. Naast het grote voordeel van bootable zijn, zorgen image backups ook voor snelle restores (bijvoorbeeld als je je harde schijf vervangt met een nieuw, groter exemplaar).
Time Machine in combinatie met SuperDuper! geeft al een zeer goede backup policy naar externe schijven, maar je zit opnieuw met een “SPOF” oftewel Single Point Of Failure: de externe schijf in kwestie! Om dit te voorkomen, kopieer ik mijn data ook nog eens naar mijn NAS (Network Attached Storage) die zijn schijven in een RAID5 opstelling geconfigureerd heeft.
Om nu dataverlies te ondergaan moet mijn primaire harde schijf (in mijn geval SSD) het begeven, moet de externe harde schijf de pijp aan Maarten geven én moet mijn NAS er ook mee ophouden.
Onmogelijk hoor ik u denken? Fout! Wat bij een overstroming of een brand? Of wat als er dieven over de vloer komen die al je computermateriaal meepakken?
Backups naar DVD’s is geen optie: te klein, duurt te lang en DVD’s (en andere optische media) verliezen na een tijd hun data (enkele jaren, maar toch). Backup naar tapes is een beetje passé en eerlijk gezegd, voor thuis vind ik dat totaal niet gebruiksvriendelijk en goedkoop is het ook al niet.
Recent is er echter een nieuwe mogelijkheid waar iedereen die een beetje in de tech-wereld thuis is, zeker en vast al van gehoord heeft: backups naar de “cloud”.
Met de “cloud” bedoelt men eigenlijk een externe provider. Je huurt ergens storage, je stuurt je data daarnaartoe via het Internet en klaar is kees. De externe provider moet zorgen voor redundantie en veiligstelling van je data.
Vroeger was zo iets ondenkbaar wegens veel te beperkte internetabonnementen in ons Belgenlandje, maar recentelijk zijn de limieten hoog genoeg om zulke zaken mogelijk te maken. Het staat je trouwens ook vrij om niet al je data naar de “cloud” te backuppen, maar je bijvoorbeeld te beperken tot je fotoarchief of je werkdocumenten om maar enkele voorbeelden te noemen.
Als je toch al je data online wil backuppen, dan kan je in plaats van alles te uploaden, ook je data op een externe schijf kopieren en die schijf opsturen naar je cloud backup provider. Zij kopieren de data dan naar je storage en daarna doe je de “updates” van je dataset via het gekende kanaal. Simple!
De cloud backup is tevens ook je “last resort”. Eerst probeer je restores te doen van je lokale backups en pas als die onbruikbaar zijn, ga je beroep doen op je cloud backup. Als je in dat laatste geval een volledige restore van bijvoorbeeld 200GB wil, kan je (tegen betaling welteverstaan) een externe schijf laten opsturen via koerier met daarop al je data. Kwestie dat je niet eerst 200GB moet downloaden alvorens je je gegevens terug hebt.
Mijn eerste “cloud” provider is Dropbox. Zowel de documenten van mijn werklaptop als die van mijn prive computers, zijn gehuisvest bij Dropbox. Al mijn documenten zijn dus eigenlijk al safe. Naast Dropbox (waar ik een abo van 50GB op heb notabene) heb ik sinds een tweetal maanden ook een abonnement op “Crashplan” waar mijn volledige Macbook zijn data naartoe stuurt.

Crashplan heeft een mooie interface, is zuinig op je resources, doet aan deduplicatie en compressie zodat je minder upload te verwerken krijgt, biedt unlimited storage aan en is daarnaast nog een van de goedkopere providers van cloud storage / backup. Plus ze kunnen je updates van je backups sturen via Twitter en andere sociale media en ze zijn zelf ook vertegenwoordigd op Twitter en reageren snel op vragen.
En ja, ik heb andere alternatieven getest zoals Backblaze en Mozy. Ik vond Crashplan beter werken en dus was de keuze snel gemaakt, maar mogelijk denk je er zelf anders over, dus testen is de boodschap. Crashplan laat ook toe om lokaal een backup te maken (als alternatief op bijvoorbeeld Time Machine) en in dat geval zal hij eerst een restore van die lokatie proberen te doen alvorens naar de “cloud” te gaan.
Er zijn nog veel meer mogelijkheden met Crashplan, maar check hun site voor al die details, ze leggen dat beter uit dan dat ik dat hier kan ;-). Weetje: ik betaal $50 per jaar om onbeperkt veel data naar de bewuste cloud te backuppen via Crashplan. Voor dat geld kan je nog geen extra externe schijf kopen die je dan bij vrienden of familie zou leggen als “offsite” backup oplossing.
Oh ja, en voor ik het vergeet: mijn Windows machines backuppen elke dag naar mijn Windows Home Server, kwestie dat ik ook die machines snel kan terugbrengen naar een werkende status ;-).
Conclusie: backups zijn belangrijk en een goed plan van aanpak is cruciaal om in tijden van miserie geen extra zorgen te hebben. Backups zijn zoals anti-biotica. Niemand neemt ze graag, maar iedereen die goed ziek is, is toch serieus content dat er een middel is om hen weer beter te maken.
Begin er vandaag mee, want morgen is het misschien te laat…

Vandaag heeft Veeam, gekend voor zijn interessante backup & SCP oplossing voor VMWare omgevingen, het doek laten vallen van hun nieuwste product / feature genaamd  “Surebackup”.  Concreet zal Surebackup toelaten om de virtuele machines waar je een backup van gemaakt hebt, te mounten in je VMWare omgeving (om precies te zijn, te presenteren aan een ESX Cluster) en zo te checken of de staat van je backup goed is. Dit alles zonder extra storage nodig te hebben welteverstaan! Ze mounten de gecompresseerde backup-file op de cluster, compleet transparant voor de gebruiker. Om al dit moois mogelijk te maken, gebruikt men vaneigens vStorage, de nieuwste API van VMWare die ze zelf o.a. gebruiken voor hun eigen backup-oplossing – DR (Data Recovery).
Interessant en cool! En als dat allemaal goed werkt, een mooi alternatief voor VMWare’s Site Recovery Manager. Surebackup zal geintegreerd worden in de komende versie van Veeam Backup & Replication, dat voor het eerst in twee verschillende versies zal aangeboden worden (en de prijs zal je features bepalen natuurlijk).
Moest er nu eens een demo-licentie in mijn virtuele mailbox terecht komen, dan zou ik het maar al te graag aan een doorgedreven test onderwerpen! Check hier hun press release en wat videomateriaal!

Gisteren was het voor de verandering nog eens tijd om een examen af te leggen. Deze keer stond er een EMC examen – E20-597 om precies te zijn. Het E20-597 examen staat voor het behalen van het “Backup and Recovery Specialist for Storage Administrators” certificaat en was een hindernis die ik werkgerelateerd al een paar maandjes op mijn agenda had staan.
Over het examen zelf kan ik redelijk kort zijn: ik vond het niet het makkelijkste examen dat ik al afgelegd heb. Veel supergedetailleerde vragen met een serieus doorgedreven technische dieptegang, waardoor multiple choice vragen eerder een vergiftigd geschenk worden. Veel antwoorden gelijken erg op elkaar, waardoor het niet moeilijk is om je te vergissen natuurlijk.
Het examen zelf telt 61 vragen en je moet 67% scoren om te slagen. Na iets meer dan dertig minuten was ik klaar, maar omdat ik mezelf naderhand al ken, heb ik nog is zoveel tijd gebruikt om alles na te lezen. Niet veel later stond er op het computerscherm dat ik geslaagd was met een score van 71% – niet “cum laude”, maar wel geslaagd.
Op naar de volgende uitdaging…

Gezien het feit dat mijn nieuwe werkgever zich vooral toespitst op EMC producten,  met daarbij de backup-oplossing “Networker” in het bijzonder, heb ik vorige week een interne opleiding (mijn werkgever geeft ook trainingen) van vier dagen gevolgd, nl. EMC NetWorker 7.x Administration for Unix and Microsoft Windows.
De cursus was een “basic” variant waarbij alle onderdelen van Networker uitgelegd worden, een installatie gedaan wordt en vanzelfsprekend daarna geconfigureerd en getest wordt. Vaneigens kan je in een opleiding maar X aantal zaken testen en is een doorgedreven testplatform nodig om verder te kunnen experimenteren. Productieomgevingen zijn daar uitermate ongeschikt voor en dus heb ik mijn VMWare testomgeving uitgebreid met een backup server, vanzelfsprekend uitgerust met EMC Networker 7.5.
Staan nog op de to-do lijst:

  • een Exchange server opzetten en die mee opnemen in de  backups
  • SQL & Sharepoint backups verder testen (was ik al mee gestart, is niet simpel trouwens)
  • Disaster Recovery van de backupomgeving testen

Let op, dit is een voorlopig lijstje. Tot nu toe komen er voor elk punt dat ik vastpak, twee nieuwe puntjes bij… Nieuwe dingen ontdekken, onder de knie krijgen, experimenteren, alles plat leggen en weer opbouwen,… my prefered way of working!

Vorig weekend wou ik na een goede week van “Mac Only” werken, mijn eigenste Windows 2008 Server computer opstarten om wat verder te experimenteren met de nieuwe Hyper-V release. Naar goede gewoonte duw ik simpelweg op de powerknop en terwijl ik wacht, doe ik andere nuttige zaken op mijn Macbook. Tot zo ver allemaal goed.
Groot was mijn verbazing wanneer ik mij omdraaide (mijn Windows machine staat achter mij, ik heb in mijn bureau namelijk een bureaublad dat de volledige vier muren volgt (en dus enkel stopt voor de deuropening) en niet mijn vertrouwde wallpaper zag, maar een zwarte achtergrond met andere icoontjes en een foutmelding van één of andere service die niet meer wou opstarten wegens missing files! Mayday! Mayday! Houston, we’re going down??
Na wat vluchtig Google-werk had ik gevonden dat het een “gekend” probleem was, maar toch niet zo gekend dat ik er heel veel over terugvond. Wel een hotfix gevonden, maar die had geen enkel effect. En dan moet je weten dat explorer en zo starten, geen optie was. Zelfs niet in safe-mode!
Bon. Op zich geen probleem, want ik heb een dagelijkse backup (alweer een voorbeeld waarom backups belangrijk zijn) die via de Windows Home Server wordt afgehandeld, dus dataverlies was geen issue. Maar die computer herinstalleren, daar had ik nu precies toch niet veel zin in… Windows 2008, VMWare Workstation, zevenendertig tooltjes, settings alhier en aldaar,… pffff. Op zijn minst vier uren noeste arbeid dus.
Maar dat was buiten Windows Home Server gerekend natuurlijk! Dat systeem kan namelijk volledige systemen restoren over het LAN! Gewoonweg booten vanop de restore cd op “trouble-maker”, zien dat gans dat proces (dat via een soort Vista GUI werkt) zelfs de WHS server lokaliseert (en voor de veiligheid het paswoord afcheckt) en dan ook nog is ziet om welke PC het hier gaat (in geval je er meerdere hebt in je netwerk) en je dan de keuze laat om al je partities (of specifieke partities, zoals ik enkel de C-partitie wou) te restoren. Indien gewenst kan je ook backups van andere computers restoren naar je PC, bijvoorbeeld een muziek-partitie of zo.
Eenmaal je aangeduid hebt wat je wil, druk je op Finish en dan zie je een progressbar vollopen tot aan de vertrouwde 100%. Daarna reboot je het systeem en voila, daar is die vertrouwde omgeving terug! Jihaa. En dat allemaal op een goed half uurtje restoren (afhankelijk van de grootte van de partitie en de snelheid van je LAN).
En eerlijk gezegd, je moet geen techneut zijn om deze functionaliteit te benutten. Een paswoord onthouden en weten welke partitie van en naar welke computer je wil restoren is genoeg.
Jep, die Windows Home Server biedt echt wel een serieuze meerwaarde voor thuisnetwerken. Ik ben fan! U toch ook?

« Older posts

© 2024 Unexpected.be

Theme by Anders NorenUp ↑