Tag Archives: HDS

En del mörka moln i horisonten

Att fler och fler börjar använda molnbaserade lagringstjänster är en naturlig utveckling och jag ser främst tre drivande faktorer för detta

  • Flexibilitet
  • Det krävs inte mycket för att även dela dokument mellan flera olika användare
  • Enkelhet
    Det är mycket enkelt att komma igång med molnbaserade lagringstjänster, men framför allt så medför detta en enkelhet att  dela dokument mellan olika system och plattformar.
  • Pris
    Priset på dessa tjänster upplevs som förhållandevis små och i små volymer även kostnadsbefriade
Att det är Enkelt, lågt pris och flexibelt är oftast den raka motsatsen mot hur vi traditionellt levererar IT-tjänster i våra organisationer och företag. Min uppfattning är att den normala leveransen från våra interna IT-organisationer bygger främst på
  • Standard
    För att få ner driftskostnader och en enklare miljö att administrera standardiserar vi våra förtags plattformar, leveranser och accessmöjligheter. Detta för att skydda vår data och miljö. Det är dock direkt en direkt motsatts till den flexibilitet som molntjänsterna erbjuder.
  • Processer, metoder och dokumentation.
    Vi har ofta ett dataansvar som ligger på IT-avdelningen vilket jag anser medför att IT-avdelningen har ett onödigt stort ansvar även för informationen som ligger på lagringstjänsten. Innan volym och access tilldelas till användaren/avdelningen så vill IT-avdelningen säkerställa att rätt säkerhet i form av access och backup/restore finns tillämpade mot tjänsten. Detta medför oftast att det inte är enkelt att komma igång med en ny typ av lagringstjänst.
  • Relativt högt pris
    Denna standard och dessa processer driver upp priset på lagringstjänsterna vi levererar internt, detta i kombination till antalet kunder gör att det blir svårt att konkurrera med de publika  molntjänsterna som har potentiellt betydligt fler kunder.

Är detta ett problem?

Jag anser tycker mig se att detta är ett problem idag. Användare har på eget bevåg skaffat sig molnbaserade tjänster för att enkelt kunna dela dokument mellan sina olika datorer, telefoner och läsplattor. Och för eller senare hamnar även företagsinformation på dessa publika molntjänster.  Tar vi en titt på en av de största och välkända molnbaserade lagringsleverantörerna, Dropbox, så ändrade de sina Terms Of Service  i slutet på förra veckan.

You grant us (and those we work with to provide the Services) worldwide, non-exclusive, royalty-free, sublicenseable rights to use, copy, distribute, prepare derivative works (such as translations or format conversions) of, perform, or publicly display that stuff to the extent we think it necessary for the Service.

Jag tror inte jag överdriver när jag påstår att du direkt strider mot ditt företags policy om du använder Dropbox och lagrar arbetsdolument. Även publika publikationer strider förmodligen mot företagspolicyn eftersom du ger dem rätt att göra förändringar, använda, publicera eller presentera dessa precis som Dropbox själva anser sig vilja göra det.

Och offentliga organisationer som verk och kommuner, strider inte detta mot svensk lag? (ja, det är en fråga.. inte ett påstående)

Lösningen?

Jag anser att lösningen på detta är att bygga upp egna tjänster inom företaget för att erbjuda molnbaserade lagringstjänster. Dessa behöver nödvändigtvis inte levereras internt, men de måste kontrolleras och erbjudas som en intern tjänst för de anställda. Men det finns färdiga produkter för att bygga elastiska, autonoma lagringsmoln att bygga internt. Exempelvis har Hitachi Data Systems sin Hitachi Content Platform (HCP) som är en molnbaserad lagringsplattform.

 

jag tycker att alla som använder molnbaserade tjänster, vare sig det är privat eller i tjänst, bör ställa sig dessa frågor med jämna mellanrum:

  • Vad är det för data jag sparar hos Dropbox, Azure, Amason, Facebook, LinkedIn, instagram, Google, Ubuntu One. etc… ?
  • Är det verkligen Jag som anvsarar och äger den datan?
  • Är det känslig infromation?
  • Vad har jag för kontroll på access?
Är jag onödigt paranoid?

Läs även andra bloggares åsikter om , , , , ,

Hitatchi släpper “skinka”

Som jag skriv tidigare så “flörtade” HDS (Hitachi Data Systems) om en produktlansering den 27-maj, och det blev High Availability Manager (HAM, “skinka”) till deras USP-V(m) enterprise klassade lagringssystem.

Det innebär att vi nu kan göra “fail-over” mellan två replikerade system med hjälp av mpio(?) funktionen i servern och TruCopy mellan skåpen. Det låter “finurligt” och intressant, men $ har också en betydelse i ekvationen.

Konsolideringar och uppköp

Först köper Oracle upp SUN, och nu är det NetApp som köper Data Domain. Lite roligt är det eftersom jag tolkar detta uppköp att NetApp inte alls tror på sin egna dedupliceringsteknik, utan vänder sig till en etablerad spelare med beprövad algoritm.

Men stackars HDS, som först blir av med sammarbetet med Dilligent när IBM köpte den tekniken, och nu medans de uppvaktar Data Domain för att få ett deduplicerings-erbjudande, blir av med detta till NetApp. Vad kommer att hända? (nu har ju HDS flörtat med en lansering den 27/5-2009, vad kommer detta vara? Jag tror i.o.f.s inte att det är ett dedupliceringserbjudande, snarare “Dynamisk lastdelning”, eller kanske “Thin Provisioning” i mellansegmentet, den som lever får se)

Nästa stora uppköp är väl att Cisco lägger ett bud på EMC (för att komma åt VMWare, kanske? ;))

Efter att vi “brytigt” oss loss från stordata-miljöerna och deras licensvilkor och supportavtal till förmån för öppen arkitektur, en server från tillverkare A, ett operativsystem från tillverkare B, en mjukvara från tillverkare C som implementeras och underhålls av leverantör D så verkar det som vi sakta men säkert rör oss mot ett fåtal stora propiritära system som låser in oss igen.. när är vi där? 5år(?) 10 år(?)… och om ytterligare 20 år bryter vi oss loss igen från dyra avtal och stängda miljöer? För att ytterligare om 30 år skriva ett likadant inlägg som detta?

Nåja, det är fredag eftermiddag… och jag är inte bitter jag inte…..

trevlig helg!

Allt går att sälja med mördande reklam…

… kom och köp konserverad gröt

EMC har under våren slagit på trumman och givit oss lite hintar om en ny produktlansering samt ett nytt koncept som skall revolutionera sättet vi hanterar datalagringen i vårat datacenter… och den 14-april lanserades den…

V-Max en “så kallat” virtuliserad  datalagring…

Men vänta… Hitachi Data Systems (HDS) har haft detta i många år med sin USP-V och USP-VM,  HP lika så (eftersom de har samma järn som HDS). Så vad är det som är så revolutionerande?

Efter att försökt läsa på så gott det går så har jag hittat några “unika” detaljer.

  • V-Max kan bara virtualisera sin egna lagring, till skillnad från HP och HDS som kan virtualiera andra lagringssystem. Det innebär att all datalagrings du redan investerat i (inkluderat EMC lagring) måste ersättas om du väljer V-Max.
  • V-Max kan byggas utt till 128 “host” och “backend-ports”. USP-VM har 1024 portar…..

Jag anser att V-Max inte är något nytt…Bara en ny “Enterprise Array” från EMC, och jag är faktiskt lite besviken. Jag hoppades på något nytt som kunde driva datalagringen framåt.. Nått som gjorde det lika intressant att jobba med datalagring som det var för 6-10 år sen… men jag fortsätter vänta..

Mer läsning:

Dave Simpson: Editor på InfoStor

Cuck”s blog : Chuck Hollis är “Global Marketing CTO på EMC

Hu’s Blog: Hu Yoshida är CTO på Hitachi Data Systems

Dave Raffo: News Director för SearchStorage