Telling stories for a living

Tag: Hitachi Data Systems (Page 1 of 3)

Collaboration – An Hitachi Content Platform Story

Vorige week zat ik rond deze tijd ook in mijn bureau. Niet om een artikel voor mijn blog neer te pennen, wel om de laatste hand te leggen aan mijn presentatie voor een seminarie van een partner.
Securelink organiseerde vorige week zijn jaarlijks seminarie waarop zij hun klanten bij een hapje en een drankje uitnodigen om een kijkje te komen nemen naar de oplossingen die ze kunnen aanbieden. Place to be was “Autoworld” te Brussel, ongetwijfeld bekend bij iedereen die een voorliefde heeft voor gemotoriseerde voertuigen. IT en auto’s – kan het nog beter worden?
Het concept was als volgt: een viertal keynote speakers kwamen praten over een onderwerp in hun vakgebied en tussen die keynotes was er de mogelijkheid voor de klanten om flightcases te bezoeken. Flightcases waren in dit geval de vendors waar Securelink mee samenwerkt en uit welke portfolio’s zij kunnen putten om hun klanten oplossingen aan te reiken.
Een van die vendors is Hitachi Data Systems en laat dat nu ook de vendor zijn voor wie ik tewerkgesteld ben bij Avnet (distributeur). Er werd mij gevraagd om de HDS-flightcase in te vullen met een “oplossing” én ik had een tijdslot van 20-25 minuten (zonder Q&A).
Let op het woord “oplossing” in de vorige zin: het was niet mijn bedoeling om een “feats & speeds” presentatie te geven – geen pure bits & bytes, benchmarks en cijfers op de mensen loslaten. Per slot van rekening kwamen er verschillende profielen naar het seminarie en wou ik zoveel mogelijk mensen kunnen adresseren met mijn verhaal.
Storytelling
Ik zocht een use-case waarin zoveel mogelijk mensen zich zouden herkennen om zo hun interesse te triggeren. Die use-case vond ik bij Microsoft Sharepoint, de reden waarom mensen naar zulk platform migreren (of plannen hebben om dat te doen) en welke pitfalls dat met zich meebrengt. Die pitfalls kunnen aangepakt worden met behulp van ons Hitachi Content Platform (HCP) en zo was mijn story geboren.
Omdat mijn verhaal al in het teken van “collaboration” stond, heb ik er nog een tweede use-case aangehangen: Dropbox-like functionaliteit binnen een enterprise omgeving aanbieden zonder in te boeten aan de strikte veiligheidsnormen die bedrijven (of wetgevers) zichzelf opleggen. Say hello to the HCP Anywhere platform!
Met dat ik een heuse “story” bedacht had, liep ik tegen de beperkingen van MS Powerpoint aan. Moeilijk gaat uiteraard ook, maar waarom moeilijk doen als er alternatieven zijn. Ik had er in het verleden al enkele keren mee gespeeld voor niet-professionele doeleinden en nu zag ik de kans om Prezi in te schakelen voor mijn “daytime job”.
Collaboration – An Hitachi Content Platform Story by Tim Verbist was geboren.
Het eindresultaat is organisch gegroeid met vallen en opstaan, met dry-runs op verschillende profielen om te zien wat werkt en wat niet werkt én met constructieve feedback van collega pappenheimers – waarvoor dank, u weet wie u bent!
Ik heb er redelijk wat tijd in gestoken, maar het resultaat mag gezien worden en na het seminarie kan ik zonder schroom zeggen dat het zijn doel meer dan bereikt heeft. De mensen die kwamen luisteren en geen voorkennis hadden over het product, noch over de problematiek die ik aankaartte, waren na een dikke twintig minuten volledig mee in mijn verhaal. De feedback was lovend en ik was tevreden.
Conclusie
Over het seminarie zelf kan ik bondig zijn: het was af. Perfecte omgeving, perfecte aankleding, goede catering, interessante sprekers en een grote opkomst. Info Security & Storage Expo hebben er een klein broertje bij! Als u er dit jaar niet bij was, zou ik als de bliksem klant worden bij Securelink om uw ticketje voor volgend jaar veilig te stellen ;-).
Securelink Checkup Seminar - HDS
Securelink Checkup Seminar - HDS
Voor de geïnteresseerden: mijn Prezi staat online beschikbaar. Het verhaal dat ik vertel zit er natuurlijk niet bij, maar dat kan altijd opgelost worden met een frisse pint en een plezante locatie :-)!

BYOD Cloud Story

BYOD – Bring Your Own Device.
Ik sta er eigenlijk van versteld hoeveel bedrijven nog vasthouden aan een vaste infrastructuur. Dat ze niet alle data zomaar in “een cloud” willen steken, daar kan ik inkomen. Maar dat ze hun personeel vastgespen in een bepaald stramien en figuurlijk gesproken uw arm omwringen en verplichten bepaalde hard- en/of software te gebruiken, daar ben ik het noorden kwijt.
Zeker als de tools aanwezig zijn om BYOD strategie perfect mogelijk te maken: app virtualisatie, server virtualisatie, tablets, smartphones, ingebouwde VPN-tunnels vanuit de applicaties zelf…
Er zijn uiteraard altijd uitzonderingen, maar de grootste gemene deler zou perfect kunnen werken op eender welk platform. Niet iedereen is even productief op een Windows machine (of omgekeerd – op een Mac). Net zoals dat sommige mensen productiever zijn thuis dan op kantoor en anderen juist verkiezen om tussen de collega’s te zitten om werk te verzetten, zo zijn er ook mensen die sneller en efficiënter kunnen werken op een bepaald platform of met een bepaalde applicatie.
Al te vaak is er ergens in een verscholen hoekje een IT afdeling in een ivoren toren met aan het hoofd een IT manager (soms in combinatie met een Security Officer) die willen vasthouden aan wat ze kennen in plaats van mee te evolueren met de rest. Voor elk negatief argument, is er steevast een positief argument en naar mijn aanvoelen is het een kwestie van tijd alvorens ook zij moeten plooien.
Over plooien gesproken: als je metaal warm maakt, plooit het relatief makkelijk mee. Als je het koud tracht te plooien, dan bestaat de kans dat het breekt… Om maar te zeggen dat een onderbouwd verhaal de essentie is voor het succes van de cloud-strategie en de bijhorende BYOD infrastructuur.
Data kan je niet afbakenen. Data moet zweven tussen verschillende oplossingen. Hence the cloud story! Waar die cloud moet staan en hoe je die beveiligt, dat zijn natuurlijk valabele discussies.
Daarvoor zijn er oplossingen zoals bv. HCP Anywhere – om maar te zeggen dat voor elk probleem en voor elke vrees een gepaste oplossing voorhanden is.
 

Cloud Anywhere

Cloud storage is het nieuwe zwart.
Bedrijven kijken er steeds meer naar en eigenlijk hebben ze gelijk. Deze evolutie kadert mijns inziens in de verschuiving waar men “vroeger” over de bits en de bytes praatte bij storage (IOPS, aantal schijven, toeren per minuut,…) terwijl men nu eerder over “de oplossing” praat.
Mensen – klanten – zijn niet meer geïnteresseerd in hoe exact iets werkt. Het moet gewoon werken en voldoen aan de eisen van de business. Hoe dat het precies werkt, daar ligt men niet wakker van. Cloud past perfect in dit plaatje: je neemt een dienst af (al dan niet extern) die gekoppeld is aan een vooraf opgestelde SLA. Duidelijk. Goede afspraken = goede vrienden.
En zoals zo vaak, is dat eigenlijk een trend die eerst in de thuisgebruikers markt pioneert: denk maar aan cloud backups / archiving, denk aan cloud storage zoals DropBox, aan streaming cloud music zoals Spotify en ga zo maar door.
Meer en meer bedrijven stappen al mee in het “Email in the cloud” verhaal. Office 365 is een ander voorbeeld. DropBox is dan weer een prachtige oplossing die de meeste bedrijven echter liever niet zien komen: bedrijfsgegevens in een cloud waar ze geen controle over hebben? No way José!
Vooral een spijtige zaak voor de eindgebruiker, de sales guy, de mensen op de baan bij eindklanten en voor die eindklanten zelf, want niks zo handig als vanop elk toestel toegang hebben tot al je data, los van VPN’s, los van het platform en volledig in sync.
Tot op vandaag is er geen enkele enterprise storage vendor die erin slaagt om een “DropBox-like” naar voor te schuiven die zowel de features heeft als compliant is met de bedrijfspolicies…
Of toch?

RAID Is (Almost) Dead

Vandaag is RAID (Redundant Array of Independent Disks) een vorm van data protectie waarop elk enterprise storage systeem op terugvalt. RAID beschermt je data voor fysisch falen van een harde schijf (of meerdere harde schijven). Het is dus géén alternatief op een backup-oplossing: als je gegevens verwijdert of een virus infecteert je bestanden, dan zal RAID daar niets aan veranderen.
Zelfs oplossingen voor consumenten ondersteunen RAID om “dataloss” te voorkomen, weliswaar in minder varianten dan de professionele oplossingen. De meeste thuisproducten ondersteunen RAID0 (helemaal geen protectie, wel meer performance) en RAID1 (vooral bescherming, maar tegen een hoge prijs) terwijl de iets duurdere varianten ondersteuning bieden voor RAID5.
Om mijn punt van deze blogpost te verduidelijken, wil ik graag het RAID1 voorbeeld gebruiken. RAID1 oftewel “Mirroring” betekent dat je voor elke harde schijf een tweede exemplaar hebt dat dezelfde data bevat als het eerste exemplaar. In geval dat de eerste schijf faalt, dan neemt de tweede het direct over (dus zonder onderbreking). Bij zo een incident vervangen we de defecte schijf met een nieuw, leeg exemplaar en zal de computer van het storage systeem alle data van de nog werkende schijf kopiëren naar de nieuwe, lege schijf om op die manier een nieuwe RAID1 set te creëren.
Het spreekt voor zich dat hoe groter de capaciteit van de schijven is, hoe langer dat kopieerproces duurt. De “catch” zit hem in het feit wanneer de primaire schijf faalt alvorens dat kopieerproces helemaal klaar is: als die situatie zich voordoet, heb je “dataloss”. In dat geval mag je hopen dat je een goede backup hebt of je gegevens zijn voor goed verdwenen.
Voor kleine, snelle schijven van 300GB die aan 15,000 toeren per minuut roteren is zo een “copy job” relatief snel geklaard. Vandaag hebben we echter al 3TB schijven ter beschikking die roteren aan 7,200 toeren per minuut. Het spreekt voor zich dat zo een schijf kopiëren meer tijd in beslag zal nemen (want meer data en tragere rotatiesnelheid) en daardoor is de kans op dataloss statistisch gezien groter.
Als we Seagate (een van de grootste fabrikanten van harde schijven op wereldvlak) mogen geloven, dan zijn 100-300TB harde schijven binnen een jaar of tien realiteit. Als ik vertel dat een “rebuild”, want zo noemen we een RAID set die zichzelf herstelt, van een RAID5 volume ongeveer 1 dag per TB nodig heeft, dan zou een rebuild van een 300TB harde schijf dus ongeveer 300 dagen in beslag nemen. De kans is zéér reëel dat er in die tijdspanne nog een harde schijf faalt, met als gevolg “dataloss”. En aangezien we dan werken met 300TB schijven, is een verlies van 1PB (1PB = 1,000TB = 1,000,000GB) aan data zeker realistisch. Ik moet niet stipuleren dat 1PB aan dataloss zo goed als meestal gelijk staat met een serieus probleem in een bedrijf…
Kortom: RAID als bescherming tegen het fysisch falen van een harde schijf is op het einde van zijn carrière. Storage vendors (zoals Hitachi Data Systems) zijn vandaag dus al bezig met hoe ze zo een datasets kunnen beschermen en we gaan dus nog boeiende tijden tegenmoet in de storage wereld.
Wordt zonder enige twijfel vervolgd…

Storage Expo 2013

Morgen gaat de jaarlijkse Storage Expo / Info Security beurs in Brussels Expo weer van start en kunnen bezoekers de “booths” van alle spelers die van enige relevantie zijn op de Belgische IT markt een bezoekje brengen.
Verwacht geen groteske “bits & bytes” opstellingen – weinig standhouders brengen werkende systemen mee of doen “live” demo’s. Deze beurs is eerder een belangrijk networking event waar nieuwe contacten gelegd kunnen worden, waar nieuwe samenwerkingen tot stand komen of waar opportuniteiten gespot worden.
Het is ook altijd een blij weerzien met ex-collega’s (het is nu eenmaal een kleine wereld) en dus een ideale gelegenheid om bij te praten en het voorbije jaar eens te overlopen (want de tijd gaat zodanig snel dat je elkaar meestal treft op zo een beurs met telkens opnieuw de intenties om wat meer af te spreken).
Tot morgen (en overmorgen) op Storage Expo / Info Security?

50 Jaar Dataretentie

De staatsveiligheid denkt er aan om alle gegevens die ze hebben over iemand voor 50 jaar bij te houden. Strak plan, vooral doen zou ik zelfs zeggen (al eens naar Hitachi’s HCP platform gekeken mannen?)! Ik zou zelfs verder gaan dan 50 jaar.
Wist u trouwens dat sommige van onze omringende landen bijvoorbeeld opleggen dat ziekenhuizen uw gegevens bijhouden voor “levensduur patiënt + 10 jaar”? En als ik u zeg dat er per patiënt gemiddeld 5GB aan data is, dan moet ik niet uitleggen dat het hier over PB’s gaat en niet over TB’s?
De echte “challenge” wordt niet die data bijhouden, maar wel van die data iets nuttigs maken: informatie.
If data is king, information/content is GOD. U mag me daar op quoten.

London, Baby!

Vandaag was “prreeeeetttyyyy busssyy” zoals ze zeggen. Vannacht rond middernacht gaan slapen om om 4u alweer op te staan: I’ve got a plane to catch!
Om half zeven ‘s morgens richting London, meer bepaald Heathrow Terminal 5 (de nieuwe dus). Daarna met de taxi richting Gerrards Cross / Sefton Park – Hitachi Data Systems HQ – alwaar ik ondergedompeld werd in de workshop die ik zelf op dinsdag gaf.
Niet om te inhoud te leren, wel om de manier van lesgeven te bekijken en eventueel iets uit meepikken om zelf toe te passen.
Flying
Lounge
Omstreeks 17u40 (lokale tijd) een “wheels up” richting België met een voorziene landingstijd van iets voor acht. Daarna nog een uur autorijden om redelijk doodmoe in bed te landen.
Need to get some sleep, want morgen = nog een laatste keer doorbijten alvorens het weekend van start gaat!
Thunderbirds are gooo!

Hitachi Forum 2013

Vandaag stond het jaarlijks Hitachi Forum op het programma:

  • Hoe ziet Hitachi Data Systems de markt evolueren?
  • Waar legt HDS het komend jaar de focus op?
  • Breekt “flash” storage door in 2013?
  • Storage Economics!

HiF2013
Dit en nog veel meer werd door een ruim publiek van partners en klanten gesmaakt. Verwacht binnenkort mijn “view on things” online.

Homelab Upgrade

Vandaag mezelf nog eens nuttig gemaakt in het homelab: VMware vSphere 5.1 deploy’en op mijn server en mijn VM’s terug uploaden naar de nieuwe datastores. De vorige waren gescratched sinds mijn “ervaringen” met iOmega en het was er nog niet van gekomen om alles terug op te zetten zoals gepland.
Met een nieuw project waarvoor ik thuis ook “hands-on” moet kunnen werken, heb ik uiteraard een VMware omgeving nodig en had ik dus het uitgelezen excuus om er werk van te maken. Vanaf vandaag draait er in mijn homelab een heus Hitachi Content Platform :-).
Dat homelab upgrade’je zal ook van pas komen bij mijn plan om de komende maanden mijn VMware VCAP5-DCA voor te bereiden. En daar heb je echt wel hands-on ervaring voor nodig…
Kortom – genoeg om me mee bezig te houden. Eens alles up & running is, geef ik een jullie een zicht op wat een Content Platform is en kan betekeken voor een bedrijf.
Om deze update af te ronden, een korte “view” op het huidige homelab:

  • “Homemade” server met Intel quadcore 2.4GHz CPU
  • 8GB RAM (kom ik mee toe omdat ik niet zoveel VM’s tegelijk draai)
  • 3 x Intel 1Gb/s NIC
  • 64GB Crucial SSD voor caching in VMware
  • iOmega Storcenter IX4-200D NAS met 4x1TB disks (2.7TB usable met RAID5)
  • FreeNAS “homemad” NAS met in totaal 6TB usable capaciteit (ZFS als onderliggend filesystem)
  • NetGear 24-poorts Gigabit switch voor de bekabeling doorheen het huis + lokaal bij server 2 x 6-port 1Gb/s managed switches
  • In de garage nog een mobiele rack met 3 x Dell Poweredge servers (maken veel lawaai dus garage) die eveneens op de gigabit backbone in het huis kan geplugged worden (gebruik ik vooral als ik meerdere ESX hosts nodig heb voor HA / FT / VMotion tests
« Older posts

© 2024 Unexpected.be

Theme by Anders NorenUp ↑