Hitachi Data Protection Suite – Na celowniku Storagefocus

0

Hitachi Data Protection Suite to wersja OEM znanego oprogramowania Simpana firmy CommVault do ochrony i zarządzania danymi. Simpana jest unikalnym rozwiązaniem na rynku, grupującym w jednym produkcie backup i odtwarzanie danych w środowiskach heterogenicznych systemów operacyjnych Windows/Linux/Unix/NetWare, archiwizację i migrację danych (HSM), systemów plików Windows/Unix/Linux oraz serwerów pocztowych Exchange i Lotus Notes, a także wiele innych funkcji, w tym deduplikację danych przechowywanych w systemach backupu i archiwizacji, ich replikację oraz indeksowanie, klasyfikowanie i wyszukiwanie informacji (więcej informacji na temat tego rozwiązania można znaleźć w artykule „Hitachi Data Protection Suite powered by CommVault”).

Na ile to rozwiązanie jest gotowe do wykorzystania przez polskie firmy? Na to pytanie staraliśmy się znaleźć odpowiedź podczas spotkania z cyklu „Na celowniku”, na którym redakcja Storagefocus gościła przedstawicieli wszystkich poziomów kanału dystrybucyjnego oprogramowania Hitachi Data Protection Suite: producenta – Hitachi Data Systems, dystrybutora – Alstor, integratorów – Copi i Pretor oraz klienta – firmę Vectra.

Uczestnicy spotkania:

Jerzy Adamiak
konsultant ds. systemów pamięci masowej, Alstor
Tomasz Jangas
Senior Solutions Consultant, Hitachi Data Systems

Wojciech Zakroczymski
Database and Networking Manager, Vectra

Paweł Pastusiak
inżynier wsparcia sprzedaży i usług, Pretor

Marcin Bednarski
Senior Consultant, Copi
Krzysztof Jakubik
redaktor naczelny Storagefocus





Storagefocus: Hitachi Data Systems oferuje oprogramowanie Hitachi Data Protection Suite (HDPS) stworzone przez firmę CommVault i sprzedawane przez HDS w modelu OEM. Skąd akurat taki model? Czy dla Hitachi nie było taniej kupić firmę CommVault?

Tomasz Jangas, Hitachi Data Systems: Nasza firma stosuje politykę partnerstwa z firmami, a nie ich kupowania. Jedyną firmą, którą HDS kupił na przestrzeni wielu lat istnienia, jest ówczesny producent rozwiązania Hitachi Content Platform. Z ciekawszych umów OEM, obok CommVault, możemy wskazać firmę BlueArc, której wydajne serwery NAS sprzedajemy pod naszą marką.

Storagefocus: Czy obecna w HDPS funkcjonalność zarządzania pamięciami masowymi została ograniczona tylko do sprzętu produkcji HDS?

Tomasz Jangas, Hitachi Data Systems: Nie, oprogramowanie to nie jest w żaden sposób ograniczone tylko do macierzy Hitachi Data Systems. Ponieważ zostało ono wyprodukowane przez CommVault, a więc przez niezależną firmę, z założenia nie ogranicza się do konkretnych rozwiązań, my także żadnych funkcjonalności w nim nie blokowaliśmy. Oprogramowanie to współpracuje z większością dostępnych macierzy dyskowych oraz systemów taśmowych. Podobnie przy realizowaniu funkcji archiwizacji, jako nośnik mogą występować taśmy w pojedynczych napędach, biblioteki taśmowe, macierze z dedykowanymi do archiwizacji wolumenami lub archiwa z funkcjonalnością WORM.

Marcin Bednarski, Copi: Wciąż wiele firm wykorzystuje nośniki optyczne i magnetooptyczne do archiwizacji, dzieje się tak m.in. w medycynie. Powstają nośniki, których trwałość producent określa na kilkaset lat. Czy HDPS umożliwia także archiwizację na takie nośniki?

Jerzy Adamiak, Alstor: Bez problemu, HDPS umożliwia archiwizowanie danych na wszystkich istniejących nośnikach, w tym optycznych i magnetooptycznych zarówno w pojedynczych napędach, jak i bibliotekach. Natomiast trzeba zastanowić się nad sensem takiego rozwiązania – pojemności tych nośników są bardzo małe, zresztą z tego powodu część innych producentów oprogramowania do archiwizacji wstrzymała wsparcie dla takich nośników. Także my ich nie zalecamy.

Tomasz Jangas, Hitachi Data Systems: Dobór nośnika to temat uniwersalny dla każdego archiwum długoterminowego. Ze względu na znajomość parametrów i trwałości dostępnych dziś nośników, najłatwiej zaprojektować takie archiwum na 3-5 lat. Niestety, wymagania są większe, czasem sięgają nawet 50 lat i wtedy pojawia się realny problem. W takim archiwum trzeba rozważyć nie tylko kwestię nośników, ale także rozważnie opracować procedurę migracji na kolejne generacje pamięci masowych i zastanowić się nad najważniejszą kwestią – czy oprogramowanie, które wygenerowało zarchiwizowaną treść, będzie za 50 lat w ogóle istniało? Za przykład często tutaj podaje się bardzo dobry i popularny w swoim czasie polski edytor tekstów TAG. W takich przypadkach powinno się archiwizowaną treść konwertować na taki format, gdzie prawdopodobieństwo, że on zniknie, będzie bardzo małe. W tej chwili myślę, że są to pliki PDF czy JPG.

Jerzy Adamiak, Alstor: Dużym problemem jest znalezienie oprogramowania, które pozwoliłoby przechowywać zarchiwizowane dane na taśmach. Większość producentów oprogramowania jako główne zastosowanie dla tego nośnika wskazuje backup. Problem powstaje, gdy przeznaczymy jedno urządzenie pamięci masowej, np. bibliotekę taśmową, jako miejsce docelowe zarówno backupów, jak i archiwizacji. Często okazuje się, że oprogramowanie do archiwizacji „zawłaszcza” sobie bibliotekę i nie pozwala oprogramowaniu backupowemu na korzystanie z niej. Tymczasem taśma to wciąż jedyne rozsądne rozwiązanie do archiwizacji danych, ale też nadal świetnie sprawdza się w systemach backupu. Dziś nie można narzekać na prędkość jej działania, jeśli poprawnie stworzymy strukturę archiwum, to nawet pojedynczy plik z taśmy LTO można odczytać w ciągu kilku minut. HDPS jest w tej chwili jedynym dostępnym na rynku rozwiązaniem, które bez problemu jest w stanie jednocześnie realizować backup i archiwizację, posiada oczywiście agentów do obu zadań.

Storagefocus: HDPS umożliwia także deduplikowanie backupowanych i archiwizowanych danych. W jaki sposób odbywa się ta deduplikacja?

Jerzy Adamiak, Alstor: Deduplikacja może być realizowana u źródła, jak i na serwerze będącym media serwerem/media agentem. Istotna sprawą jest to aby oprogramowanie „wiedziało” jaki rodzaj danych deduplikuje, a tak dzieje się rzadko. Gdy oprogramowanie nie rozpoznaje jaki rodzaj danych deduplikuje, to – szczególnie w przypadku baz danych – często trudno jest uzyskać jakikolwiek efekt deduplikacji. Dzieje się tak z powodu specyficznej struktury strumienia danych, zależnej od tego czy jest to np. strumień danych zwykłego systemu plików czy może strumień danych z API MS SQL czy może strumień Oracle RMAN Okazuje się, że korzystając z mechanizmu, który rozumie strukturę zapisywanych danych i jest w stanie pominąć dane/znaczniki wstawiane przez API backupowe, przy tych samych danych można uzyskać deduplikację na poziomie ponad 90%. Oprogramowanie HDPS bardzo dobrze rozumie strukturę deduplikowanych danych, umożliwiając osiągnięcie tego samego współczynnika redukcji jak przy bardzo skomplikowanych i drogich sprzętowych rozwiązaniach deduplikujących, a dodatkowo nie ogranicza nas do platformy sprzętowej i jest znacznie tańsze.

Storagefocus: Jednym z pierwszych użytkowników oprogramowania HDPS jest operator telekomunikacyjny Vectra. Oprogramowanie to zostało wybrane jako jedno z wielu, co o tym zdecydowało?

Wojciech Zakroczymski, Vectra: Rzeczywiście, oprogramowanie HDPS traktowaliśmy z początku trochę jako ciekawostkę, ponieważ nie było dużych wdrożeń tego oprogramowania na polskim rynku i produkt ten był praktycznie nieznany. Ale po wstępnym zapoznaniu sie z systemem stwierdziliśmy, że ma on jedną podstawową dla nas zaletę – jest maksymalnie prosty z punktu widzenia administratora, który nie jest ekspertem od pamięci masowych czy backupu lub archiwizacji. Ponieważ nie mamy inżynierów, którzy mogliby zajmować się tym systemem na pełen etat, to był dla nas jeden z priorytetów, który uwzględnialiśmy przy wyborze systemu. Na dodatek, potrzebna jest tutaj redundancja wśród administratorów, więc nie chcieliśmy się decydować na system, który będzie związany z długimi szkoleniami dla kilku administratorów.

Wcześniej korzystaliśmy z oprogramowania IBM Tivoli Storage Manager, które nie spełniło naszych oczekiwań – jest przeznaczone do bardzo dużej infrastruktury, gdzie jest wielu odpowiednio przeszkolonych inżynierów, setki serwerów i olbrzymie biblioteki taśmowe. Natomiast jeżeli w firmie system backupu jest jednym z kilkunastu, którymi zajmuje się parę osób, to musi on być prosty w obsłudze. System taki musi z nami rozmawiać jak z człowiekiem, oferować dobry poziom raportowania, pokazywać co sie wykonało, a co nie. Bez problemu wysyłać alarmy o wszelkich nieprawidłowościach i ułatwiać reagowanie na nie.

Storagefocus: W jakim środowisku działa to oprogramowanie? Czy są jakieś problemy z jego utrzymaniem?

Wojciech Zakroczymski, Vectra: Ten system nie wymaga wiele pracy, żeby go utrzymać. Jeśli zachowany jest reżim przy kontroli poprawności wykonania backupu i prawidłowo kontrolowany jest stopień zużycia taśm, wtedy nie ma żadnego problemu. System jest stabilny, nie wiesza się, nie psuje, nie dzieją się żadne dziwne rzeczy. Logi są rejestrowane poprawnie, a gdy pojawia się jakiś problem w środowisku backupu, to system mówi o tym wystarczająco wcześnie, żeby można było zawczasu zareagować. Na co dzień systemem HDPS zarządzają u nas aż trzy osoby, ale tylko dlatego, że jest to bardzo proste – oczywiście mają też wiele innych obowiązków. Mamy 54 serwery, które musimy backupować, w tym takie systemy jak AIX, Linux, VMware, Exchange, MS SQL, Oracle, Windows Server… Jednym z głównych założeń było, że system backupu ma obsługiwać wszystkie serwery. HDPS ma agentów do wszystkich systemów operacyjnych, jakich byśmy potrzebowali. Nie mamy jeszcze tylko wdrożonego backupu pojedynczych skrzynek pocztowych…

Storagefocus: Integratorem, który realizował to wdrożenie, była firma Pretor. Jakie stały przed wami wyzwania. Do jakich klientów jest kierowany ten produkt?

Paweł Pastusiak, Pretor: Największą zaletą oprogramowania HDPS jest to, że jest uniwersalne – mogą z niego korzystać firmy każdej wielkości, nie tylko te, gdzie rośnie objętość danych, ale także te, które z czasem będą potrzebowały kolejnych funkcjonalności, jak archiwizacja, deduplikacja czy replikacja. Przy wdrożenie w Vectrze największym wyzwaniem była różnorodność wersji systemów operacyjnych oraz dość małe okno backupowe – dane, które są bardzo ważne, muszą być backupowane nonstop, szybko i sprawnie, a także musi być zachowana możliwość łatwego odzyskania tych danych.

Wojciech Zakroczymski, Vectra: U nas z początku pojawiło się podejrzenie, że ten system nie jest dla dużych firm. Obawialiśmy się sytuacji, gdy będziemy musieli rozwinąć się z backupem, dokupić kolejne taśmy, dołożyć kolejny serwer itp. Ale przyjrzeliśmy się funkcjonalności – główna zasada działania jest dokładnie taka sama jak we wszystkich innych systemach, jest modularność, wspólne zarządzanie itd. Dla naszej firmy istotne było też to, że dla różnych systemów mamy obowiązek trzymania backupów przez różny okres. Mamy system ERP, który zawiera informacje finansowe i jego backupy musimy trzymać przez 5 lat, bo tak nakazują przepisy. Mamy systemy billingowe, które nie mają takich wymagań, ale ich backupy też trzymamy przez 5 lat. Taśmy musimy wynosić do zewnętrznej lokalizacji, ponieważ jeszcze nie mamy możliwości replikowania tych danych online i trzymania ich na dyskach – chcemy to zrobić w przyszłości. Chcieliśmy też uzyskać system, który pozwoli nam na proste zarządzanie tymi taśmami. Codziennie wynosimy je do innej lokalizacji, ale bez problemu możemy je odnaleźć. Co prawda, trochę musieliśmy zmienić nasze podejście i filozofię odnośnie tworzenia takich kopii, ale metoda zaproponowana przez HDPS jest w porządku i realizujemy ją

Storagefocus: Oprogramowanie jakich firm rozważaliście i dlaczego nie zdecydowaliście się na nie?

Wojciech Zakroczymski, Vectra: Oglądaliśmy m.in. EMC Legato i Avamar oraz Symantec NetBackup i BackupExec. Ten ostatni odpadł od razu, ponieważ nie obsługiwał wszystkich systemów, m.in. nie ma klienta na bazę Oracle na AIX. Założyliśmy, że chcemy zrobić po prostu dobry backup, deduplikacja nie była dla nas bardzo istotna, traktowaliśmy ją jako wartość dodaną, chociaż teraz korzystamy z niej bardzo dużo. W tej dziedzinie zaczęliśmy od oprogramowania EMC Avamar i muszę przyznać, że jest to bardzo dobre rozwiązanie, uzyskało najlepsze ze wszystkich współczynniki deduplikacji. Natomiast ma jedną istotną wadę – nie jest zintegrowane z oprogramowaniem do backupu, są to dwa różne interfejsy, co prawda można je połączyć, ale – co zastanawiające – trzeba za to dodatkowo płacić. Oglądaliśmy też oprogramowanie Symantec NetBackup, który okazał się systemem trudnym w obsłudze (chociaż prostszym od IBM Tivoli), a więc tym samym nie spełniał jednego z naszych podstawowych wymagań.

Storagefocus: Można odnieść wrażenie, że zdecydowaliście się na kupno HDPS metodą eliminacji konkurencji – każdy z produktów miał jakąś wadę. Czy może jest coś, co Was urzekło w HDPS?

Wojciech Zakroczymski, Vectra: Przede wszystkim urzekło mnie to, że tam wszystko jest w jednym miejscu. Uruchamiam interfejs i wszystko widzę, nie mam z tym żadnego problemu. Oczywiście, każdy z tych systemów uważnie sprawdzaliśmy i doszliśmy do wniosku, ze skoro HDPS działa wystarczająco dobrze, a jest zdecydowanie najprostszy ze wszystkich, to dlaczego nie spróbować?

Storagefocus: Ile czasu trwał proces decyzyjny i samo wdrożenie?

Wojciech Zakroczymski, Vectra: Proces decyzyjny trwał trochę dłużej, ponieważ w tamtym czasie HDPS nie miał żadnych dużych referencji w Polsce, więc nie mogliśmy obejrzeć go w działającym produkcyjnym środowisku i musieliśmy wykonać własne testy. Wdrożenie trwało około miesiąca, ale było wydłużone, bo mieliśmy pewne problemy z dostawami sprzętu. Tradycyjnie powinno trwać parę tygodni. Natomiast sama instalacja jest bardzo prosta, to było jedno z gładszych wdrożeń, jakie widziałem.

Storagefocus: Na ile obecnie poprawiła się sytuacja z referencjami?

Jerzy Adamiak, Alstor: Obok firmy Vectra, kończy się właśnie wdrożenie oprogramowania HDPS w poznańskiej firmie ENEA, są też firmy, które kupiły „czyste” oprogramowanie firmy CommVault przez kanał dystrybucyjny firmy Dell. Oczywiście, jest także wiele referencji zagranicznych.

Storagefocus: Czy do obsługi HDPS konieczne było ukończenie jakichś szkoleń, uzyskania certyfikatów itd., czy też jest ono na tyle intuicyjne, że mając wiedzę administratora, można spokojnie dać sobie radę?

Wojciech Zakroczymski, Vectra: Szkolenie polegało na tym, że po prostu uczestniczyliśmy we wdrożeniu. Oprogramowanie zostało zainstalowane i praktycznie od samego początku było wiadomo o co w nim chodzi – tylko patrząc na interfejs i klikając.

Storagefocus: Czy są jakieś niedogodności, które można wskazać w tym oprogramowaniu?

Wojciech Zakroczymski, Vectra: Jedyną uwagę mamy do raportów, które są dobre, ale nie aż tak, jakbyśmy tego chcieli. Producent powinien popracować nad raportowaniem mediów, głównie taśm i poprawić sposób filtrowania tych danych. Dokumentacja odnośnie obrotu nośnikami nie jest wystarczająca, aby uzyskać informacje, których potrzebujemy. Trzeba wygenerować kilka raportów i samemu je połączyć. To daje się zrobić, ale zajmuje trochę pracy. Po pewnym czasie użytkowania przyzwyczailiśmy się już trochę do tego, nawet dochodzimy do wniosku, że przyjęta przez producenta koncepcja jest całkiem rozsądna, ale jest inna od tradycyjnych. Sama baza też nie jest intuicyjna. Ponieważ jest to baza SQL, liczyliśmy na to, że będziemy mogli robić wspomniane raporty we własnym zakresie, zgodnie z naszymi potrzebami.

Jerzy Adamiak, Alstor: Rzeczywiście, raporty w HDPS są interesujące, ale oczywiście każdy by chciał coś jeszcze do nich dodać. Jest tam bardzo dużo opcji, ale na razie nie ma np. języka zapytań, więc nie można stworzyć raportu zawierającego konkretne tabele. CommVault udostępnił to, co typowy użytkownik chciałby otrzymać z tych raportów. Natomiast funkcjonalność ta jest rozwijana i w nowej wersji oprogramowania powinno będzie oczywiście lepiej. Niektórzy stawiają też zarzut, że HDPS jest ograniczony tylko do środowiska Windows, bo wymaga serwera zarządzającego z systemem Windows, jako że trzyma główną bazę na MS SQL. Ale to dotyczy tylko systemu zarządzającego, w większych środowiskach utrzymanie jednego dodatkowego serwera Windows nie stanowi żadnego problemu.

Tomasz Jangas, Hitachi Data Systems: Proszę nie zapominać, że Hitachi Data Systems oferuje też oprogramowanie, które jest w stanie zbierać raporty nie tylko z HDPS, ale także z konkurencyjnych systemów backupu i archiwizacji oraz wielu innych rozwiązań do zarządzania pamięciami masowymi.

Storagefocus: Vectra używa to oprogramowanie głównie do backupu, czemu nie do archiwizacji?

Wojciech Zakroczymski, Vectra: Funkcję archiwum uzyskujemy poprzez dłużej przechowywany backup. Tak jak wspomniałem, dane systemu ERP i billingi przechowujemy na taśmach przez pięć lat, pocztę z systemu Microsoft Exchange przez dwa lata. Oczywiście będziemy rozwijali ten projekt, chcemy wykonywać backup stacji roboczych klientów, archiwizować skrzynki pocztowe i zasoby dyskowe. Cieszę się, że zainwestowałem w HDPS, bo tutaj wystarczy dokupić kolejny moduł archiwizacji i otrzymujemy konkretną funkcjonalność. Gdybyśmy zdecydowali się na inne rozwiązanie, każda rozbudowa systemu wiązałaby się z koniecznością otwierania kolejnego projektu, dokupowania serwerów, pamięci masowych i integracji z istniejącymi systemami. Tutaj wszystko co jest związane z backupem i archiwizacją mogę mieć w jednym miejscu.

Storagefocus: Już parę razy usłyszeliśmy określenie „wszystko w jednym”, ale jednak licencje na poszczególne segmenty trzeba kupować oddzielnie?

Jerzy Adamiak, Alstor: Praktycznie u wszystkich dostawców należy płacić oddzielnie za określone funkcjonalności. Nie ma też konieczności instalowania od razu całego pakietu wszystkich funkcji, tak jak wymuszają to niektóre pakiety konkurencyjne. Dzięki temu serwer backupu nie jest dodatkowo obciążany, a użytkownicy korzystają tylko z tych modułów, których rzeczywiście potrzebują. Tak więc opłacie podlega każdy element systemu – klient, serwer, moduł, media agent i biblioteki (jednonapędową bibliotekę i zmieniacz taśmowy można podłączyć bezpłatnie, za każdy kolejny napęd trzeba dodatkowo płacić). Dla użytkowników może też mieć znaczenie backup na dysk, ewentualnie deduplikacja – jedno, jak i drugie kosztuje. Backup na dysk jest licencjonowany za każdy terabajt przechowywanych danych na urządzeniu docelowym, taniej w postaci czystej, trochę drożej w postaci zdeduplikowanej. Przy deduplikacji mówimy o pojemności, jaką nasze dane rzeczywiście zajmują w pamięci masowej.

Marcin Bednarski, Copi: Na ile HDPS wspiera replikację między ośrodkami podstawowym i zapasowym?

Jerzy Adamiak, Alstor: Replikację danych zawsze było trudno powiązać z backupem i archiwizacją. Tutaj jest to bardzo elastyczne, zdalna replikacja jest dostępna z jednego interfejsu. Możliwe jest np. replikowanie zasobów pamięci masowej do backupu, co może być przydatne w scenariuszu, gdy zdalny oddział backupuje dane do centrali. Ale najlepiej jest replikować całe biblioteki lub macierze dyskowe – wtedy po obu stronach konieczne jest kupno tylko licencji Continuous Data Replicator na serwery.

Marcin Bednarski, Copi: W jaki sposób HDPS może pomóc przy backupie laptopów i desktopów?

Jerzy Adamiak, Alstor: To jest opcja, która działa na zasadzie replikacji, ale to jest replikacja w zaplanowanym przez nas czasie – dyskretna. Korzystając z mechanizmów i technologii Continuous Data Replication dane są pobierane z zasobu dyskowego ze źródła. Korzystając z tego oprogramowania możemy robić też kopie migawkowe repozytorium chronionych danychi backupować je na taśmę. Dzięki temu możemy mieć codziennie na taśmie obraz wszystkich laptopów – zupełnie automatycznie.

Storagefocus: Czy oprogramowanie HDPS wspiera funkcję WORM, czyli możliwość zapisywania danych w trybie tylko do odczytu?

Tomasz Jangas, Hitachi Data Systems: Z punktu widzenia oprogramowania HDPS jest wszystko jedno, na jaki rodzaj pamięci masowej będą zapisywane dane. Istnieje oczywiście lista wspieranych rozwiązań, wśród nich są dwa urządzenia do profesjonalnej archiwizacji danych – nasze Hitachi Content Platform (wcześniej oferowane jako Hitachi Content Archive Platform) oraz EMC Centera. Zaszyte w tym rozwiązaniu oprogramowanie pozwala na budowanie archiwum według ściśle określonych polityk przechowywania danych w niezmienionej postaci i ich kasowania po upływie okresu retencji. Dostawcami informacji do takiego archiwum mogą być różne aplikacje, jak HDPS lub konkurencyjne, (aktualnie wpieranych przez HCP jest na liście ponad 100 aplikacji do archiwizacji informacji w różnych obszarach: bazy danych, systemy obiegu dokumentów, pliki, poczta elektroniczna, itp.) W szczególnych przypadkach nie trzeba kupować oprogramowania do archiwizacji, bo możliwe jest archiwizowanie danych z aplikacji źródłowych bezpośrednio na HCP (np. SAP czy SharePoint). Możliwe jest to dzięki architekturze HCP oraz wykorzystywaniu w tym rozwiązaniu otwartych interfejsów do komunikacji z aplikacjami.

Storagefocus: Dużo ostatnio mówi się o cloud computing. Definicja ta staje się coraz bardziej precyzyjna. Czy klienci już powoli mentalnie dochodzą do punktu, gdy zaczynają myśleć o tego typu rozwiązaniach? Czy są gotowi na automatyzację, gdzie nadzorują tylko poprawność wykonania niektórych operacji, a nie sami je wykonują?

Paweł Pastusiak, Pretor: Potrzeba jeszcze trochę czasu, zanim dojdziemy do tego momentu. Na razie niektórzy dopiero dorastają do wirtualizacji. Część z nich rozważa korzyści, które mogłyby płynąć z pełnej automatyzacji środowiska IT, ale na wdrożenie takich systemów z pewnością trzeba będzie jeszcze długo czekać.

Marcin Bednarski, Copi: Wirtualizacja rzeczywiście rozwija się coraz bardziej dynamicznie ostatnio, ale jeszcze do niedawna była traktowana bardziej jako ciekawostka, w sferze testowo-laboratoryjnej i deweloperskiej, niż w produkcji. Mamy klienta, który wciąż wzbrania się przed wirtualizacją, twierdzi, że potrzebuje maksymalnej wydajności, którą gwarantuje tylko fizyczna macierz dyskowa. Na razie dojrzał do tego, ze większość serwerów stawia w infrastrukturze wirtualnej. Natomiast naszym zdaniem cloud computing wciąż jest niedoprecyzowany, ludzie szukają zalet i realnej potrzeby wykorzystania tego modelu.

Storagefocus: Czy jako administrator wyobraża pan sobie, że nie siedzi, nie testuje oprogramowania, nie negocjuje z dostawcą, a po prostu zleca firmie wykonanie backupu na wewnętrzne zasoby firmy, przy utrzymaniu konkretnego poziomu świadczenia usług? Taki outsourcing backupu przy założeniu, że sprzęt pozostaje w siedzibie firmy i dochowane jest pełne bezpieczeństwo.

Wojciech Zakroczymski, Vectra: To byłaby kusząca propozycja, ale w biznesie trzeba liczyć pieniądze. Jeżeli taka opcja okazałaby się tańsza, a może nawet lepsza, niż klasyczny model, to ma szansę powodzenia. Natomiast jeżeli opłaty za taką usługę byłyby takie same lub wyższe niż tradycyjny model, to oczywiście nikt nie będzie tym zainteresowany. Dla zarządu atrybut ceny musiałby być znaczący, aby zrezygnować z własnego zarządzania całym środowiskiem.

Storagefocus: Ale przy outsourcingu modele cenowe są przecież zupełnie inne. W tradycyjnym modelu trzeba kupić sprzęt, oprogramowanie, ta inwestycja pierwotna jest bardzo duża, a zwraca się dopiero potem. W modelu outsourcingu na początku nic nie płacimy, pierwsza faktura przychodzi po miesiącu… Czy to rozłożenie na raty nie jest przekonujące?

Wojciech Zakroczymski, Vectra: Takie wyliczenia możemy robić dopiero wtedy, gdy pojawiłby się dostawca takich usług z konkretną ofertą. Wówczas my możemy spróbować policzyć ile kosztuje nas miesięczne utrzymanie tego systemu, uwzględniając koszt zakupu. Natomiast to nie zawsze wychodzi tak różowo. Podobnie wyglądał u nas problem wirtualizacji – musieliśmy finansowo udowodnić celowość takiego rozwiązania i jego wyższość nad tradycyjnym modelem, co wcale nie było takie proste. Wirtualizację udało się wdrożyć, ale mieliśmy bardzo konkretne dane, w tym finansowe, do obliczeń.

Storagefocus: Dziękuję wszystkim za udział w spotkaniu.

PODZIEL SIĘ

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ