Telling stories for a living

Category: Servers (Page 2 of 4)

Hoe meer data je hebt, hoe meer de noodzaak voor een goed systeem om alles een plaats te geven. Backups, documenten, foto’s, bookmarks, text-files, slidedecks,… you name it. De tijd van megabytes is al lang vervlogen. Zelfs gigabytes beginnen geschiedenis te worden. Vandaag, zelfs in “consumer” omgevingen – lees: in je eigen huis – zijn terabytes al schering en inslag.
Ik heb twee laptops: mijn persoonlijke Macbook en een ThinkPad van de werkgever. Daar begint het probleem al. Ik wil graag al mijn werkgerelateerde documenten  beschikbaar hebben op mijn Macbook, maar ook op mijn iPhone of iPad bijvoorbeeld. Als ik ‘s avonds aan iets denk of ik wil nog snel een document of presentatie overlopen, dan heb ik geen zin om mijn ThinkPad te gaan zoeken, op te starten en te wachten. Dan wil ik gewoon mijn iPad van de salontafel pakken en dat document openen.
Vroeger werd zo iets opgelost met zaken doormailen. Of op een USB-stick zetten. Maar dan zit je met verschillende versies van een bestand, met alle gevolgen vandien. Corrupte files (ik denk aan “Available Offline” van Windows – de slechtste uitvinding ooit), niet meer weten welke versie de juiste is, de verkeerde versie meehebben,…
Om dat euvel op te lossen, gebruik ik “de Cloud”. In mijn geval is die cloud DropBox (en in beperkte mate iCloud en Google). Dat cloud-gebeuren lost mijn probleem van verschillende versies her en der op. Ik moet ook slechts één “file repository” backuppen. Win-win dus.
Maar DropBox is niet alles uiteraard. Mijn werklaptop wordt niet verder gebackupped. Alles wat van belang is, zit in mijn eigen “private cloud”, de rest – lees: OS en applicaties – kan mij gestolen worden. Als mijn ThinkPad sterft, kapot gaat, gestolen wordt,… is het gewoon een kwestie van een nieuwe ThinkPad te bestellen en mijn cloud applicatie erop te installeren.
Mijn Macbook zit naast dat cloud-gebeuren, wel nog verwikkeld in een backup structuur. Mijn Macbook bevat ook mijn muziek, mijn foto’s, mijn hebben en mijn houden zeg maar. Documenten zitten in de cloud, maar de “media” niet. Of toch niet in DropBox en consoorten, want daarvoor is mijn storage capacity daar veel te kleinschalig.
Neen. Mijn Macbook stuurt in eerste instantie alles naar de USB-schijf met TimeMachine van Apple. Dat is mijn eerste toevluchtsoord in geval van nood. Daarnaast wordt er elke nacht een “smart copy” gemaakt via Super Duper. Smart copy impliceert dat enkel de eerste backup een full copy is en dat elke daarop volgende backup in feite bestaat uit delta’s. Sommige backup toepassingen noemen dat ook wel “incremental forever”.
Die Super Duper backup gaat naar een FreeNAS netwerk opslag met een capaciteit van om en bij de 4TB (ZFS als onderliggend filesystem).
Als derde vangnet heb ik een kopie van alles wat echt belangrijk is (een iTunes backup, een LightRoom backup,…) ook gekopieerd naar mijn iOmega StorCenter, eveneens een NAS box. RAID5 voor de disk-config, in totaal 4TB raw capacity, 2,7TB usable capacity. Die backups zijn een manueel gebeuren en doe ik gemiddeld eens per maand, meer als ik veel nieuwe data op de Mac heb gedumpt.
Lokaal is mijn backup systeem dus meer dan redundant, maar dat was nog niet genoeg. Wat als mijn huis in vlammen op gaat? Of wat als er dieven over de vloer komen die alles meesleuren, ook mijn backup devices? Oplossing? De cloud natuurlijk! De volledige Macbook wordt opnieuw permanent naar de cloud gestuurd via CrashPlan. Ook hier kan je spreken over “incremental forever” backups, maar daarop nog eens deduplicatie zodat de upload naar de cloud (de delta’s van daarnet) zo klein mogelijk is.
Om dat allemaal overzichtelijk te houden, is een goede structuur in je folders en disks onontbeerlijk. Anders zit je met zoveel data her en der verspreidt, dat je niet meer weet wat waar zit. Resultaat: dubbels, dubbels en dubbels. En dat kost geld aan opslag, aan tijd, aan storage en aan bandbreedte (want alles moet geupload worden naar de cloud).
Data brengt dus werk met zich mee. Vroeger hadden we ocharme 500MB opslagcapaciteit en daarmee was de kous af. Vandaag zijn terabytes goedkoper dan ooit en staan we niet meer stil bij een gigabyte’je meer of minder. Alles netjes een plaats geven is belangrijk en houdt de boel handelbaar, maar wat ik nog veel liever zou hebben, is een complete indexering van al mijn data.
Indexeer al mijn bestanden. Dan kan ik zoeken op filename en *BOEM* – daar is mijn file. Maar ik wil meer dan dat. Ik wil dat ook alles geïndexeerd word op content. Ik wil niet al mijn filenames onthouden, dat is onbegonnen werk! Maar als ik over een bepaald onderwerp iets zoek, dan kan een index die ook in bestanden kijkt, mij serieus helpen.
Voeg daar nog meer metadata aan toe zoals tijdstippen, exif data, locatie gegevens,… en ga zo maar door, en je krijgt een systeem dat al die data kan doen samenvallen en een correlatie kan aanbieden aan de gebruiker.
Dat zou ik graag hebben, thuis. Dat zou het gemakkelijk maken. En dat bestaat bij mijn weten nog niet voor de consumer markt. Er bestaan wel softwares die dat doen, maar die zijn niet cross-platform, cross-storage-device, cross-… dus dat is niet helemaal wat ik zoek.
Tot wanneer dat mogelijk is, zit er niks anders op dan een goede structuur aanhouden en een nette “flow” te respecteren voor mijn data. Alles heeft zijn plaats, zijn folder, zijn bestemming. Door dat systeem consequent toe te passen, kan ik erg snel iets terugvinden, maar het blijft een taak om dat systeem netjes te volgen.
Hoe doet u dat, al uw data een plaats geven? Welk systeem gebruikt u? Welke software? Welke backups? Neemt u überhaubt wel backups? Consequent? Ik ben eens curieus.

Backups zijn kritisch en hun belang is van groot belang, niet alleen voor bedrijven, maar hoe langer hoe meer ook voor particulieren. Meer en meer mensen bewaren hun “leven” op hun computer via digitale foto’s, digitale video’s, documenten, rekeninguitreksels, klantengegevens, boekhouding,… you name it.
Vroeg of laat gebeurt er iets waardoor je al die belangrijke data voorgoed kwijt bent. Overstromingen, brand, diefstal, user mistake,… the sky is the limit als het op vlak van mogelijke rampen aankomt, maar dat je een van die zaken tegenkomt is een kwestie van tijd.
Of je nu op Windows, op Mac OS, op Linux of nog een ander besturingssysteem werkt, backups heb je altijd nodig. Hoe vaak ik al mensen in paniek aan de telefoon had met de vraag of ik hun foto’s nog kon redden van een defecte schijf, ik kan de tel niet meer bijhouden. De ene keer kan ik met succes alles terughalen, de andere keer hebben ze pech en is de enige mogelijke optie (die niet altijd succesvol is) de schijf opsturen naar een gespecialiseerde firma die dan ettelijke duizenden Euro’s aanrekent om de schijf in kwestie te ontleden en een data recovery te doen.
En zeg nu zelf, wie gaat er een paar duizend Euro op tafel leggen (willen of kunnen) voor die foto’s van dat familiefeestje terug te halen? Meestal laten de mensen het zo en pakken ze het verlies er maar bij…
Gelukkig zijn er genoeg betaalbare oplossingen om bovenstaande situaties te vermijden! De goedkoopste is een externe harde schijf naar waar je op regelmatig tijdstip je belangrijke data overzet. Als Apple gebruiker maak ik hiervoor gebruik van Time Machine voor een backup per uur. Daarnaast neem ik ook nog wekelijks een “image” backup met behulp van SuperDuper!.
Time Machine is handig voor bestanden terug te halen, maar kan ook gebruikt worden bij een herinstallatie. SuperDuper! images zijn niet alleen bootable, maar ze geven je ook je Mac terug zoals die op het moment van backup was. Naast het grote voordeel van bootable zijn, zorgen image backups ook voor snelle restores (bijvoorbeeld als je je harde schijf vervangt met een nieuw, groter exemplaar).
Time Machine in combinatie met SuperDuper! geeft al een zeer goede backup policy naar externe schijven, maar je zit opnieuw met een “SPOF” oftewel Single Point Of Failure: de externe schijf in kwestie! Om dit te voorkomen, kopieer ik mijn data ook nog eens naar mijn NAS (Network Attached Storage) die zijn schijven in een RAID5 opstelling geconfigureerd heeft.
Om nu dataverlies te ondergaan moet mijn primaire harde schijf (in mijn geval SSD) het begeven, moet de externe harde schijf de pijp aan Maarten geven én moet mijn NAS er ook mee ophouden.
Onmogelijk hoor ik u denken? Fout! Wat bij een overstroming of een brand? Of wat als er dieven over de vloer komen die al je computermateriaal meepakken?
Backups naar DVD’s is geen optie: te klein, duurt te lang en DVD’s (en andere optische media) verliezen na een tijd hun data (enkele jaren, maar toch). Backup naar tapes is een beetje passé en eerlijk gezegd, voor thuis vind ik dat totaal niet gebruiksvriendelijk en goedkoop is het ook al niet.
Recent is er echter een nieuwe mogelijkheid waar iedereen die een beetje in de tech-wereld thuis is, zeker en vast al van gehoord heeft: backups naar de “cloud”.
Met de “cloud” bedoelt men eigenlijk een externe provider. Je huurt ergens storage, je stuurt je data daarnaartoe via het Internet en klaar is kees. De externe provider moet zorgen voor redundantie en veiligstelling van je data.
Vroeger was zo iets ondenkbaar wegens veel te beperkte internetabonnementen in ons Belgenlandje, maar recentelijk zijn de limieten hoog genoeg om zulke zaken mogelijk te maken. Het staat je trouwens ook vrij om niet al je data naar de “cloud” te backuppen, maar je bijvoorbeeld te beperken tot je fotoarchief of je werkdocumenten om maar enkele voorbeelden te noemen.
Als je toch al je data online wil backuppen, dan kan je in plaats van alles te uploaden, ook je data op een externe schijf kopieren en die schijf opsturen naar je cloud backup provider. Zij kopieren de data dan naar je storage en daarna doe je de “updates” van je dataset via het gekende kanaal. Simple!
De cloud backup is tevens ook je “last resort”. Eerst probeer je restores te doen van je lokale backups en pas als die onbruikbaar zijn, ga je beroep doen op je cloud backup. Als je in dat laatste geval een volledige restore van bijvoorbeeld 200GB wil, kan je (tegen betaling welteverstaan) een externe schijf laten opsturen via koerier met daarop al je data. Kwestie dat je niet eerst 200GB moet downloaden alvorens je je gegevens terug hebt.
Mijn eerste “cloud” provider is Dropbox. Zowel de documenten van mijn werklaptop als die van mijn prive computers, zijn gehuisvest bij Dropbox. Al mijn documenten zijn dus eigenlijk al safe. Naast Dropbox (waar ik een abo van 50GB op heb notabene) heb ik sinds een tweetal maanden ook een abonnement op “Crashplan” waar mijn volledige Macbook zijn data naartoe stuurt.

Crashplan heeft een mooie interface, is zuinig op je resources, doet aan deduplicatie en compressie zodat je minder upload te verwerken krijgt, biedt unlimited storage aan en is daarnaast nog een van de goedkopere providers van cloud storage / backup. Plus ze kunnen je updates van je backups sturen via Twitter en andere sociale media en ze zijn zelf ook vertegenwoordigd op Twitter en reageren snel op vragen.
En ja, ik heb andere alternatieven getest zoals Backblaze en Mozy. Ik vond Crashplan beter werken en dus was de keuze snel gemaakt, maar mogelijk denk je er zelf anders over, dus testen is de boodschap. Crashplan laat ook toe om lokaal een backup te maken (als alternatief op bijvoorbeeld Time Machine) en in dat geval zal hij eerst een restore van die lokatie proberen te doen alvorens naar de “cloud” te gaan.
Er zijn nog veel meer mogelijkheden met Crashplan, maar check hun site voor al die details, ze leggen dat beter uit dan dat ik dat hier kan ;-). Weetje: ik betaal $50 per jaar om onbeperkt veel data naar de bewuste cloud te backuppen via Crashplan. Voor dat geld kan je nog geen extra externe schijf kopen die je dan bij vrienden of familie zou leggen als “offsite” backup oplossing.
Oh ja, en voor ik het vergeet: mijn Windows machines backuppen elke dag naar mijn Windows Home Server, kwestie dat ik ook die machines snel kan terugbrengen naar een werkende status ;-).
Conclusie: backups zijn belangrijk en een goed plan van aanpak is cruciaal om in tijden van miserie geen extra zorgen te hebben. Backups zijn zoals anti-biotica. Niemand neemt ze graag, maar iedereen die goed ziek is, is toch serieus content dat er een middel is om hen weer beter te maken.
Begin er vandaag mee, want morgen is het misschien te laat…

Eind vorige week een VMware vSphere 4.0 Update 2 omgeving geupgrade naar vSphere 4.1:

  1. Upgrade package downloaden van de VMware website
  2. Package importeren in de Update Manager
  3. Host in “maintenance mode” zetten
  4. Upgrade laten lopen
  5. Reboot
  6. Upgrade Manager laten scannen voor extra updates, bugfixes,…
  7. Upgrades toepassen
  8. Klaar
  9. Host uit “maintenance mode” halen en aan de volgende host beginnen…

Op zich allemaal goed gelukt zonder problemen, ware het niet dat mijn HA (High Availability) configuratie voor problemen zorgde na de upgrade. De eerste host gaf geen noemenswaardige problemen aan, maar op de tweede kwam er de melding dat er een probleem was met de HA Agent op de host.
In zo een geval migreer ik meestal de VM’s naar de andere host en reboot ik de machine. Probleem nummer 2: vMotion wou ook niet meewerken waardoor de taken om de VM’s te migreren bleven “hangen”.
Enfin. De time-out’s uitgezeten en daarna gewoon de VM’s afgezet (gelukkig was er geen issue voor productie) en daarna de host een reboot gegeven. En ja, ik had eerst de VMware service herstart, zonder soelaas.
Spijtig genoeg gaf een reboot geen oplossing. Het probleem van de HA agent was er nog steeds en vMotion ging ook nog niet zoals het moest (en dus faalde DRS eveneens).
Oplossing: host uit de cluster verwijderen waarop de HA agent verwijderd wordt van de ESX host. Daarna terug toevoegen zodat de agent opnieuw geïnstalleerd wordt en klaar is kees. Probleem opgelost, HA up & running, DRS in de pocket en vMotion deed ook weer wat van hem / haar verwacht werd.

Mijn webserver draait op Linux (duh!) met daarop een management shell: Plesk. Ik ben daar eigenlijk heel content van en het zorgt ervoor dat ik simpele zaken zoals het aanmaken van e-mail adressen, SPAM instellingen aanpassen, extra domeinen toevoegen of nieuwe sites hosten erg makkelijk kan verwezenlijken met een handige GUI.
Ja ik weet dat dat allemaal via CLI kan in Linux, maar ik heb daar geen goesting in. Ik doe dat niet genoeg om dat in de vingers te hebben en ik heb geen zin om op momenten dat ik dringend iets wil eerst enkele MAN pages door te nemen ;-).
Anyway. Ik draaide nog versie 9.1 op mijn webserver en gisteren heb ik er eindelijk werk van gemaakt om het boeltje te upgraden naar Plesk 10.0.1 (de laatste versie dus). Alles vlot verlopen, enkele nieuwe features gespot, een knappere GUI en overall better performance.
Een tevreden blogger als resultaat. Moest u problemen ondervinden, let me know!

Ik lees en hoor via via dat men er bij “Justitie” in geslaagd is om de mailserver maar liefst een week lang plat te leggen en alle betrokkenen dus zonder e-mail te plaatsen.
In eerste instantie hoop ik ten zeerste dat die “mailserver” eigenlijk meerdere mailservers zijn (ooit al gehoord van SPOF – Single Point Of Failure?) en ten tweede vraag ik mij af hoe ze er in slagen om zo iets een WEEK plat te leggen? In mijn ogen kan zo iets alleen maar wanneer je datacenter ontploft is, onder water staat of een nucleaire oorlog ondergaan heeft. En dan mag je toch verwachten dat een instantie met genoeg geld en zo een verantwoordelijkheid toch een Disaster Recovery Plan heeft?
Zucht. Moesten het daar geen ambtenaren zijn maar een privé onderneming, er zouden serieuze ontslagen vallen denk ik zo.
Een support contract bij Microsoft hoor ik u denken? Vaneigens zullen ze dat wel hebben, maar als je naar Microsoft belt en zegt dat je Exchange 5.5 down is, dan denk ik dat het meest voor de handliggend antwoord zal zijn “upgrade eerst naar een supported versie en bel dan eens terug”.
En terecht. Is uw vertrouwen in de overheid ook weer een aantal niveaus gezakt? Join the club.

Professioneel ben ik op regelmatige basis bezig met het opzetten van demo en POC (Proof Of Concept) omgevingen. In januari van dit jaar hadden we ook enkele demo booths op Storage Expo 2010 waardoor ik ondertussen een basis heb opgebouwd om snel een omgeving op te zetten.
Niet helemaal onverwacht gezien mijn interesse in virtualizatie, maak ik in 90% van de gevallen gebruik van een VMWare oplossing om mijn demo-omgeving op te bouwen. Met die wetenschap in het achterhoofd, zijn er in feite twee opstellingen mogelijk:
Wanneer rauwe rekenkracht ondergeschikt is:
– Lenovo ThinkPad R500
– Intel Core 2 Duo 2.0GHz
– 320GB HDD on-board + 48GB SSD via PC-Card slot + 500GB mobile HDD via USB 2.0
– 4GB RAM
– MS Windows 7 Ultimate
– VMWare Workstation 7
In dit geval draait alles op en rond mijn lokaal geïnstalleerde VMWare Workstation 7 virtualizatie software waarin ik mijn virtuele machines aanmaak. De VM’s (virtuele machine’s) met de meeste I/O plaats ik op de SSD, de overige machines op de mobiele schijf. Ik tracht zoveel mogelijk de interne harde schijf te sparen, want die is de grootste bottleneck in dit verhaal.
Dit “mobiele” labo gebruik ik vooral voor functionele demo’s waar je bepaalde features van een product wil laten zien. Performantie is van ondergeschikt belang, want daarvoor is er puntje twee, namelijk…
Wanneer performantie belangrijk is:
SUN X4275 server
– 64GB (of meer) RAM
– 2 x Intel QuadCore 2.26GHz
– 6 x 300GB SAS 15K HDD in RAID5 (RAID level hangt af van doel, soms RAID0,RAID10 of RAID50)
– 16GB Flash Disk (buffer voor bv. swapfiles)
– 8 x Gbit ethernet NIC
– 2 x Fibre-Channel HBA (4Gbit)
– VMWare vSphere Update 1

Bovenstaand “labo” is nog altijd mobiel, maar vanzelfsprekend minder mobiel dan mijn ThinkPad. Deze omgeving is dan ook eerder gericht op demo’s tijdens workshops, events, product launches,…

Hier is het OS van de machine in kwestie geen Microsoft variant, maar VMWare’s meest recente hypervisor – vSphere Update 1. Eenmaal dat vSphere geconfigureerd is, installeer (of beter gezegd, “upload” want ik recycleer mijn VM’s) ik de virtuele servers / workstations en kan de fun beginnen. Gezien de disk capaciteit, het overschot aan netwerkkaarten, de acht fysische CPU cores en niet te vergeten, het broodnodige RAM geheugen kan ik op dit platform zo goed als alles tonen wat ik wil.
Het management van de deze tweede omgeving gebeurt trouwens opnieuw via de ThinkPad, met behulp van de VMWare Infrastructure Client of “de VIC” voor de vrienden. De VM’s zelf configureer ik in eerste instantie via de console view, maar eenmaal het netwerk in orde is, verkies ik een simpele RDP connectie wegens voor de hand liggende redenen.
Voila, daarmee heb ik de basis van mijn testlabo’s uit de doeken gedaan. In de volgende artikels zal ik enkele concrete demo omgevingen uit de doeken doen dus stay tuned for more virtual geekness ;-).

Voor de geïnteresseerden is er morgenavond een event van IT Talks (gratis!) waar de focus gelegd wordt op het automatiseren van de uitrol van zowel Windows 7 als Windows 2008 R2 Server. Naar goede gewoonte wordt de uiteenzetting gedaan door mensen die weten waarover ze spreken en is het ook een fijne gelegenheid om te netwerken met andere gelijkgezinden.
Spijtig genoeg kan ik zelf niet aanwezig zijn wegens reeds andere plannen op de agenda staan, maar het is de moeite waard dus als je nog een plaatsje in de agenda hebt, inschrijven en deelnemen!
Ah ja, het is deze keer in Gent, meer bepaald in de Contributiestraat 9. Deuren gaan open om 19u en sluiten zich weer om 21u30. Bij deze bent u op de hoogte gebracht.

Vanzelfsprekend is er @work een knappe VMWare ESX testomgeving ter beschikking, maar thuis heb ik ook een testomgeving die ik gebruik om alles wat me boeit op los te laten. Dat varieert van Hyper-V, Solaris, bèta releases van Windows OS’es,… you name it.
Vaneigens ga ik niet telkens opnieuw dat volledig systeem herinstalleren en dus gebruik ik VMWare Workstation om mijn testmachines in op te zetten. ESX of ESXi zou mogen, maar aangezien mijn onboard NIC’s niet ondersteund worden, is dat geen optie (en ik vermoed dat mijn SATA controllers ook problemen zouden geven, moest hij niet falen op de NIC-detectie).
Het host operating system is Microsoft Windows 2008 Server met Service Pack 2 64-bit. Onderliggend zit er een Intel QuadCore CPU die op 3,4GHz loopt (origineel op 2,4GHz en dus overclockt met 1GHz, op standaardkoeling) en sinds een tweetal weken beschikking heeft over 8GB RAM geheugen. Voordien had de machine 4GB RAM geheugen aan boord, maar als ik meer dan vier virtuele machines actief had, liep ik tegen de beperkingen van het geheugen aan en begon het systeem trager te worden. Zeker gezien de prijs van RAM geheugen is de volledige operatie een “no-brainer”. Met die 8GB kan ik met gemak 10 virtuele machines (6 servers en 4 clients) hun ding laten doen, wat volstaat voor wat ik thuis probeer.
Voor opslag zit er een 320GB SATA schijf met 16MB cache in die het OS en alle applicaties bevat. De tweede schijf is een 640GB SATA schijf met 32MB cache en heeft als hoofdtaak het opslaan van de VMWare virtuele machines en andere data (zoals ISO’s, downloads,…). Last but not least is er een externe harde schijf van 250GB die voor backup doeleinden gebruikt wordt (of om bijvoorbeeld sources op te kopieren die in de virtuele machines gebruikt worden, kwestie van niet alles vanaf één harde schijf te draaien en zo de boel hopeloos te vertragen). De totale opslagcapaciteit komt daarmee op 1,2TB – meer dan genoeg denk ik?
Vorig weekend heb ik de videokaart ook een upgrade gegeven: uit met de MSI ATI/AMD Radeon 2400XT (passief gekoeld) en say hi to de ASUS ATI/AMD Radeon 4890 TOP met 1GB DDR5 geheugen. Met uitzondering van de crossfire kaarten (al dan niet op één PCB) is dit de snelste Radeon kaart die je vandaag kan kopen en dus ideaal om mijn schade in te halen op vlak van PC gaming. Die 4890 weegt trouwens enorm zwaar en heeft twee extra stroomkabels nodig om te functioneren! Heavy! Qua lawaai valt het goed mee: de cooling van de videokaart is fluisterstil in Windows omgeving en komt pas tot leven wanneer je begint te gamen. Ideaal (of toch as good as it gets zonder watercooling erop te schroeven).

Asus Radeon 4890

Concreet: mijn testserver is tegelijkertijd ook mijn PC gaming station met W2K8 als OS en dat gaat allemaal vlotjes en zonder problemen. Logisch ergens, want W2K8 Server en Vista zijn op dezelfde kernel gebaseerd. Call Of Duty 5: World at War, Crysis en Fall Out 3 zijn geïnstalleerd en worden gevalideerd ten huize Unexpected 😉 – als ik dus iets minder online ben de komende dagen, u weet waarom!

Zelf heb ik het al een paar weken ter beschikking via mijn Technet abo, maar sinds gisteren is Service Pack 2 voor Windows Vista / Server 2008 voor iedereen vrij te verkrijgen. Sowieso upgraden mensen, want zelfs indien er grafisch of feature-gewijs niets aangepast wordt, bevat zo een service pack wel hotfixes, bugfixes, security updates en wat nog allemaal die je computer beter en veiliger maken.
Je kan de update via Windows Update binnenhalen, maar je kan het service pack misschien beter apart downloaden en ergens bewaren op een externe schijf of USB stick of zo, kwestie dat je bij een herinstallatie (of als je meerdere computers hebt) niet elke keer opnieuw die download moet doen.
Waarop wacht u nu nog? Upgraden! En nu!

Gisterenavond heb ik de setup van Service Pack 2 op mijn Windows 2008 Server (Enterprise Edition to be exact) machine losgelaten en alles is prima verlopen. Deze keer geen activatie-perikelen, dus ik vermoed dat ik ergens iets verkeerd heb gedaan of dat de upgrade van het RAM geheugen toch voldoende was om de activatie te triggeren op mijn laptop. Weird.
Los daarvan is het er ook van gekomen om Windows 7 Release Candidate te installeren op mijn Sony VAIO. De installatie verloopt Vista gewijs, wat dus betekent dat de installatie snel gaat (naar mijn gevoel zelfs sneller dan bij Vista) en een startklaar systeem oplevert binnen de 30-35 minuten. Ten opzichte van de bèta valt het me ook op dat er naast de lichte GUI wijzigingen ook een pak meer drivers standaard meegeleverd worden. Bij de bèta was ik nog aangewezen op het internet om drivers te zoeken voor de geluidskaart, de videokaart en nog wat andere mambo jambo, maar deze keer ging dat allemaal netjes vanzelf.
Windows 7 bolt goed. Sneller dan Vista SP2. Ik denk (op het eerste zicht althans) dat ze terug een “winner” vast hebben daar in Redmond city – “A new XP is born”.
Vergeet zelf niet om uw kopie van 7 te downloaden, want sinds enkele dagen is het publiek beschikbaar (Ultimate Edition zelfs) dus waarom zelf eens niet checken of het u allemaal aanstaat?

« Older posts Newer posts »

© 2024 Unexpected.be

Theme by Anders NorenUp ↑