Przyszłość backupu i archiwizacji z wymiennymi nośnikami

0

Dyski magnetooptyczne przegrały wojnę z płytami DVD i Blu-Ray. Taśmy właśnie przegrywają bitwę o backup, ale wciąż górują na polu archiwizacji. A co tak naprawdę potrzebuje klient? Serwis Storagefocus zorganizował debatę z cyklu Arena Storagefocus poświęconą przyszłości systemów backupu i archiwizacji, gdzie dane są zapisywane na wymiennych nośnikach.

Uczestnicy spotkania (od lewej):

  • Sylwester Pytkowski, Inżynier Wsparcia Technicznego, Alstor
  • Arthur Kilian, Sales Manager Europe & Former Soviet Union, Tandberg Data
  • Krzysztof Jakubik, redaktor naczelny Storagefocus
  • Daniel Olkowski, Commercial Account Manager, EMC Software Group
  • Tomasz Jangas, Senior Solution Consultant, HDS


Krzysztof Jakubik, Storagefocus
: Jak producenci rozwiązań taśmowych, tacy jak Tandberg Data, bronią się, gdy klient mówi: dyski w zupełności nam wystarczą, po co nam taśmy, skoro ich nie potrzebujemy?

Arthur Kilian, Tandberg Data

Arthur Kilian, Tandberg Data: Na początku trzeba zastrzec, że dyski jako nośnik dobry do wszystkich zastosowań uważa tylko część klientów. Oczywiście, skończył się czas, gdy taśma była jedynym rozwiązaniem do backupu. Staramy się jednak przekonać klientów, że taśmy wciąż są najlepszym narzędziem do archiwizacji. Dysk, jak każde urządzenie, ma swoje plusy i minusy. Moim zdaniem jego główną wadą jest to, że jest zainstalowany w systemie na stałe. Zniszczenie serwerowni albo serwera może doprowadzić do utraty danych. Replikacja, czyli konieczność zbudowania dodatkowego systemu, to potężny koszt dla firmy zatrudniającej 50 czy 100 osób. Do realizacji tego celu potrzebne jest przecież oprogramowanie i infrastruktura sieciowa, która zresztą i tak nie zawsze umożliwia szybki transfer danych. Poza tym, jeśli mówimy o archiwizacji, to długi czas przechowywania plików na dyskach ze względów ekonomicznych nie ma większego sensu. Ale – jak wspomniałem – dyski mają też swoje plusy, m.in. szybki dostęp do danych, a dzięki temu możliwość wykonania szybkiego backupu i jeszcze szybszego odtworzenia danych. Na taśmie pojedynczy zapis trzeba najpierw znaleźć, trwa to nawet minutę, ale jak dotrzemy do informacji, to czas odczytu i zapisu jest taki sam, jak na dyskach twardych. Największą zaletą taśm wciąż jest to, że można je wynieść i przechować poza miejscem przeprowadzania operacji. Długoletnia archiwizacja i duża kompatybilność wsteczna to walory tych rozwiązań, które zresztą w dalszym ciągu dobrze się sprzedają.

Sylwester Pytkowski, Alstor

Sylwester Pytkowski, Alstor: Rozwiązania dyskowe są rzeczywiście bardzo dobre, jednak nie do wszystkiego. W każdej firmie mamy zasadniczo do czynienia z dwoma rodzajami danych – takimi, które należy na bieżąco aktualizować i takimi, które trzeba przechowywać przez dłuższy czas. Ten drugi rodzaj danych to informacje, które najczęściej powinny pozostawać w niezmiennej formie przez cały okres swojego życia. Nie musimy ich mieć na dysku, można je trzymać na nośnikach optycznych albo taśmowych, do których nie jest potrzebny szybki dostęp. Systemy dyskowe są jednak najlepszym rozwiązaniem, jeżeli chcemy odtworzyć dane, które utraciliśmy przed chwilą.

Tomasz Jangas, HDS

Tomasz Jangas, HDS: Zgadzam się, że wybór rozwiązania zależy od jego przeznaczenia. W przypadku archiwizacji należałoby zastanowić się, co chcemy albo musimy archiwizować i jak długo te dane będą przechowywane w niezmienionej postaci. Jeżeli czas przechowywania jest dłuższy niż 3 lata, to o jakiejkolwiek technologii byśmy nie rozmawiali, musimy założyć migrację z jednej generacji na drugą. Bo nie ma takiej technologii, która by trwała przez 5-10 lat, niezależnie od tego, czy jest to taśma i biblioteka taśmowa lub dysk i macierz dyskowa. Zazwyczaj w okresie istnienia archiwum będziemy mieć do czynienia z jedną, dwiema lub trzema migracjami. Mieliśmy klienta, który będzie musiał przechować dane przez 50 lat. Niestety nikt nie wie, czy za 50 lat będzie istniała jeszcze biblioteka taśmowa, która pozwoli odczytać takie stare informacje. A zatem procesy migracyjne również trzeba brać pod uwagę w czasie trwania i projektowania archiwum. Tylko wtedy, gdy dane mamy trzymać krótko, przez 2-3 lata, jesteśmy w stanie zmieścić się w jednej generacji sprzętu. Przy dłuższych projektach argument, że na taśmie coś można dłużej przechowywać, przestaje być kluczowym. Bo nie jesteśmy pewni, czy za 10 lat odczytamy taśmę w danym standardzie.

Arthur Kilian, Tandberg Data: Wiadomo, że ten, kto odpowiada za archiwum, ma dwie możliwości – migracja do nowszej technologii albo zbiór starego sprzętu i oprogramowania, które ewentualnie kiedyś mogą mu się przydać, żeby informacje z archiwum odtworzyć. Migracja jest najłatwiejszym i najbezpieczniejszym rozwiązaniem, bo podczas tej operacji można zrobić weryfikację danych. Warto zauważyć, że w przypadku rozwiązań taśmowych migracja po dłuższym czasie robi się skomplikowana. Co 6-8 lat na rynku pojawia się nowe rozwiązanie, które nie jest kompatybilne z tym, które oferowano przed laty. Weźmy na przykład LTO-1 z 2000 roku i LTO-4 z 2008 roku. Oba standardy nie są już ze sobą kompatybilne. Jeśli chcemy przeprowadzić migrację z LTO-1 na LTO-4, to pomiędzy nimi musi być urządzenie, które jest w stanie odczytać starsze dane, a równocześnie współpracuje z nowym rozwiązaniem.

Daniel Olkowski, EMC

Daniel Olkowski, EMC: Moim zdaniem gwoździem do trumny systemów taśmowych są rozwiązania do backupu nowej generacji. Chodzi o backup z deduplikacją na źródle oraz systemy Continuous Data Protection. Obecnie zdalne oddziały czy też duże systemy plikowe mają dużą powtarzalność danych, a jednocześnie zdalne oddziały mają bardzo słabe łącza. Nie jesteśmy w stanie przesłać danych ze zdalnych oddziałów do centrali tradycyjnymi systemami backupowymi, a backup lokalny przy użyciu systemów dyskowych i taśmowych jest bardzo drogi. Załóżmy, że mamy 150 oddziałów. Zakup streamera czy prostego systemu backupowego dla każdego z nich to są duże koszty, a nie ma gwarancji, że backup będzie wykonywany. Z drugiej strony jednak trudno zrobić backup do centrali np. ze względu na niewielką przepustowość łączy internetowych. I tutaj przydają się rozwiązania do backupu z deduplikacją. Przenoszą one nie całe pliki, ale fragmenty zmienionych plików, co powoduje, że dziennie są backupowane ułamki promili danych. To nie są rozwiązania przyszłości, one funkcjonują już teraz. Są dojrzałe, stabilne, nie ma z nimi problemów. Rozwiązanie do backupu, które operuje fragmentami plików, z natury rzeczy potrzebuje takiego nośnika jak dysk. Trudno sobie wyobrazić, żeby używano taśmy, choćby ze względu na czas dostępu. Mamy więc do czynienia z następną generacją rozwiązań backupowych, która niejako wymusza stosowanie systemu dyskowego.

Z drugiej strony w dużych centrach danych mamy przede wszystkim duże bazy danych. Tutaj klienci zwracają uwagę na dwa parametry. Pierwszy to czas z przeszłości, z którego możemy odtworzyć dane – sekunda, 10 sekund, godzina, tydzień… Druga sprawa to czas samego odtworzenia. Jeśli mamy backup systemu komputerowego na taśmie, to z reguły potrzeba pół dnia, żeby go w pełni odtworzyć. Systemy Continuous Data Protection powodują, że mamy replikę danych za cenę 120 proc. podstawowej przestrzeni, którą zajmuje nam Oracle, MS SQL czy inna baza. Jeśli ma ona np. 4 TB, to za cenę dodatkowych 5 TB jesteśmy w stanie dzięki CDP odtworzyć dane z sekundy czy godziny wstecz. Trudno więc sobie wyobrazić, żeby systemy CDP wykorzystywały napędy taśmowe. Nie wszyscy klienci są świadomi tych technologii, tym niemniej już są one dojrzałe, stabilne i gotowe do implementacji. Myślę, że to właśnie one w najbliższym czasie będą największym wyzwaniem dla systemów taśmowych.

Arthur Kilian, Tandberg Data: Ale systemy deduplikacji nie są przecież zarezerwowane wyłącznie dla systemów dyskowych. Oczywiście – w przypadku backupu baz danych na taśmę nie da się wykonać CDP, ale deduplikację – owszem. Za to odpowiada oprogramowanie do backupu, które umożliwia zapisywanie fragmentów plików na taśmie. Trzeba jednak przyznać, że wiele firm nie akceptuje faktu iż przy odtwarzaniu danych z taśmy z reguły otrzymujemy zestaw danych z dnia poprzedniego. Ale gdy firma produkcyjna ma dział rozwoju, który przygotowuje testy urządzeń, to nie ma potrzeby przechowywania danych na dyskach, które cały czas pracują, pobierają prąd i ktoś musi je nadzorować. Zwróćmy uwagę, że koszt zarządzania informacją, która jest konieczna do zabezpieczenia, ale nie wymaga szybkiego dostępu, jest niewspółmiernie większy w systemach dyskowych niż w taśmowych. Chciałbym jednak podkreślić, że są to rozwiązania, które wzajemnie się uzupełniają. Każde ma swoje plusy i minusy.

Krzysztof Jakubik, Storagefocus: Jak widać, nasze rozważania przeszły na płaszczyznę backup kontra archiwizacja. Spróbujmy to uporządkować, odpowiadając na fundamentalne pytanie: jaka jest przyszłość przed rozwiązaniami backupu na taśmie?

Arthur Kilian, Tandberg Data: Zastanówmy się, dlaczego z rynku zniknęła firma Plasmon i rozwiązania magnetooptyczne? Otóż nie sprawdziły się one z dwóch względów – nośniki miały małą pojemność i były drogie. Tak samo spada sprzedaż pojedynczych napędów taśmowych, bo ich pojemność jest niewielka. Rośnie jednak sprzedaż bibliotek taśmowych, a więc rozwiązań o dużych pojemnościach. Myślę, że ze względów ekonomicznych taśmy jeszcze długo pozostaną na rynku. Zmienią się jednak ich zastosowania. Backup na taśmie rzeczywiście traci sens. Mogą go jeszcze wykorzystywać małe firmy, ale dla dużych podmiotów, z dużymi bazami danych, taśmy już się nie nadają.

Tomasz Jangas, HDS: Zgadzam się, że wybór rozwiązania do backupu zależy od wielkości firmy. W dużych podmiotach backup coraz częściej polega na robieniu kolejnych kopii danych trzymanych na dyskach wewnątrz macierzy. Chodzi o to, aby czas odzyskania danych był jak najkrótszy. Firma zabezpiecza się w ten sposób przed stratami, które może ponieść, jeżeli dane nie będą szybko dostępne.

Daniel Olkowski, EMC: Załóżmy, że firma miała problem z aplikacją, która zaczęła błędnie zapisywać. W tej sytuacji odtworzenie danych z backupu jest jedyną opcją. Jeśli nie wiemy, kiedy zaczął się problem, potrzebujemy kilku kopii – z wczoraj, sprzed tygodnia, sprzed miesiąca. Wtedy można ustalić, kiedy pojawiły się kłopoty. Jeśli do tego dojdziemy, możemy z kolejnych kopii odtworzyć błędne operacje. Gdyby dane były zapisywane na taśmach, ich odtworzenie trwałoby rok. Jeśli dział biznesowy firmy ma szybki dostęp do danych sprzed sekundy, dnia, tygodnia, to jego jakość pracy jest zupełnie inna. Przekłada się to nie tylko na koszty infrastrukturalne, lecz także na przewagę rynkową, bo narzędzie backupowe pozwala w bardzo szybkim czasie dotrzeć do kopii z dowolnego okresu, oczywiście z pewną granulacją. W ostatnim tygodniu jesteśmy w stanie odtworzyć dane z każdego dnia, w ostatnim dniu – z każdej godziny, a w ostatniej godzinie – z każdej sekundy.

Krzysztof Jakubik, Storagefocus: O ile droższe jest wspomniane rozwiązanie od takiego, które nie ma tej funkcjonalności?

Daniel Olkowski, EMC: Na koszty składają się dwie rzeczy. Jedna to nośniki. Jak wspomniałem, do zapewnienia backupu potrzeba dodatkowo co najmniej 120 proc. oryginalnej przestrzeni dyskowej, bo musimy mieć kopię podstawową plus przestrzeń do przechowywania historii. W zależności od tego, jak długo będziemy historię trzymać, możemy potrzebować dodatkowo 10-50 proc. przestrzeni. Druga kwestia, to koszt samego rozwiązania. Nie jestem w stanie podać konkretnych kwot, ale nie są to wielkie liczby. Na takie rozwiązania mogą sobie pozwolić średnie firmy z budżetem liczonym w dziesiątkach tysięcy złotych.

Krzysztof Jakubik, Storagefocus: Czego wasi klienci potrzebują od systemów backupu?

Sylwester Pytkowski, Alstor: Nasi klienci wybierają w większości tanie, pojemne macierzy dyskowe, idące w stronę wirtualnych bibliotek taśmowych. Warto jednak zauważyć, że po dłuższych rozmowach klienci przekonują się do rozwiązań taśmowych, głównie ze względu na koszty. Taśma LTO-4 kosztuje ok. 200 zł, a najtańszy dysk SATA 1 TB – ok. 700 zł. Dla małej firmy to spora różnica, mimo oczywistych zalet rozwiązań dyskowych, jak np. szybkie czasy dostępu i możliwość optymalizacji danych.

Tomasz Jangas, HDS: Produkujemy rozwiązania dyskowe, więc staramy się przekonywać do nich swoich klientów. Jednak nie za wszelką cenę. W wielu firmach dyski i taśmy uzupełniają się. W dużych i średnich firmach stosuje się np. rozwiązania typu disk-to-disk-to-tape (D2D2T) z kopią pośrednią, wykonywaną mechanizmami macierzy, aby odciążyć system produkcyjny w czasie robienia backupu. Coraz odważniej idziemy w kierunku wirtualnych bibliotek taśmowych.

Sylwester Pytkowski, Alstor: W dużych firmach istnieje problem backupu ze zdalnych oddziałów. Do tej pory tak naprawdę nie ma technologii, która za rozsądne pieniądze gwarantowałaby backup nawet z 10 oddziałów. W rezultacie w 80 procent firm nie ma takiego rozwiązania. Drugim problemem naszych klientów są środowiska wirtualizacji serwerów, bo te bardzo szybko się zapełniają. Klienci mają w takich systemach do kilkudziesięciu TB danych, więc powstaje problem jak je przerzucić na jakikolwiek nośnik. Naszą odpowiedzią na potrzeby klientów w tym obszarze są systemy backupu z deduplikacją.

Arthur Kilian, Tandberg Data: Problemem wciąż jest przekonanie klienta, że potrzebuje system do backupu. Wielu myśli tak: pracuję 20 lat na komputerze i nigdy nic się nie stało, więc po co mi dodatkowe koszty. Backup i archiwizacja należą do ostatnich rzeczy, które firma kupuje, chociaż oczywiście wiele zależy od zarządzających i ich wiedzy. Jeżeli już kierownictwo zdecyduje się na backup i archiwizację, to często niewiele wiedzą o takich rozwiązaniach. Przyznaję, że w tej chwili dysk jest pierwszym rozwiązaniem, o którym myślą klienci. Jeśli jednak interesuje ich większy poziom bezpieczeństwa informacji, decydują się na rozwiązanie taśmowe. Jest to na przykład wspomniany system D2D2T, czyli „zabezpieczenie zabezpieczania” danych. System zapewnia backup z szybkim dostępem i długoletnią archiwizację po niskich kosztach.

Krzysztof Jakubik, Storagefocus: W takim razie jakie potrzeby odnośnie archiwizacji zgłaszają wasi klienci?

Arthur Kilian, Tandberg Data: Przede wszystkim oczekują taniego, łatwego do zarządzania medium. Często musi to być medium, na którym nie ma możliwości zmodyfikowania informacji. Firmy i instytucje są zobowiązane prawem do przechowywania niektórych danych przez wiele lat, np. danych osobowych, informacji o pacjentach i ubezpieczonych, projektów architektonicznych itd. Jeśli ma miejsce katastrofa budowlana, to trzeba mieć możliwość sięgnięcia do odpowiedniej dokumentacji i jej odczytania. Są to dane niepotrzebne na co dzień, więc lepiej je przechowywać na taśmie i ewentualnie przeprowadzać migracje co jakiś czas. Tak jest taniej.

Tomasz Jangas, HDS: Niekonieczne jest tak, że archiwizacja na dyskach jest droższa. Oczywiste jest, że pracujący dysk zużywa prąd. Producenci stosują jednak specjalne rozwiązania dla napędów dyskowych, które służą do przechowywania informacji. Można wyłączać dyski twarde i całe grupy RAID-owe w ramach archiwum online’owego i w ten sposób ograniczyć pobór mocy. Poza tym musimy pamiętać, że oprócz kosztów energii są jeszcze koszty zarządzania archiwum. W sytuacji, gdy musimy archiwizować tysiące czy dziesiątki tysięcy taśm, koszty zarządzania i przechowywania są niemałe, o czym producenci taśm rzadko wspominają.

Krzysztof Jakubik, Storagefocus: Na ile klienci zdają sobie sprawę, że co kilka lat trzeba przeprowadzać migracje archiwizowanych danych?

Arthur Kilian, Tandberg Data: Niespecjalnie. Wielu klientów nie rozróżnia nawet backupu od archiwizacji. Często trzeba im wytłumaczyć reguły działania tych obu procesów, a następnie informować o płynących z nich konsekwencjach.

Tomasz Jangas, HDS: W sprawach archiwizacji świadomość klientów rzeczywiście jest niska. Trochę lepiej znają się na backupie.

Daniel Olkowski, EMC: Muszę się zgodzić, że 80-90 proc. klientów nie odróżnia backupu od archiwizacji. Często używają tych pojęć zamiennie. Jeżeli już interesują się archiwizacją, to myślą z reguły o informacjach, które trzeba przechowywać ze względów prawnych. Warto tutaj zauważyć, że obowiązujące w Polsce prawo dla takich sytuacji preferuje rozwiązania taśmowe. Wprawdzie nie jest to zapisane wprost w ustawie, ale są pewne zalecenia, np. żeby takie informacje przenosić do innej lokalizacji. Klienci zwykle myślą wtedy o taśmach. Przenoszenie danych na taśmy często nie ma więc nic wspólnego z kosztami, wynika z przepisów albo z wewnętrznych regulacji firmy. Bywa i tak, że wprowadzono je jakiś czas temu i nie dopasowano do nowych technologii. Nieraz spotykam się z sytuacjami, że klient mówi od razu: informacje muszą być na taśmach, bo takie mamy zasady. Ale to dotyczy archiwizacji ze względów prawnych. Nie są świadomi, że funkcjonalność WORM jest dostępna zarówno na taśmach, jak i na dyskach.

Arthur Kilian, Tandberg Data: Z archiwizacją jest też taki problem, że w firmach odpowiadają za nią nie te osoby, z którymi rozmawiamy. Backupem zajmują się działy IT, ale gdy zaczynamy im wyjaśniać na czym polega archiwizacja, to często okazuje się, że nasi rozmówcy nie są w tych kwestiach kompetentni. Czasem w firmach dopiero wówczas szuka się odpowiednich osób. Niewiele jest podmiotów, które mają jasno określone zasady jakie dokumenty należy archiwizować i na jak długo. Z nimi rozmawia się łatwiej, bo mają ludzi zajmujących się archiwizacją i konkretne oczekiwania.

Daniel Olkowski, EMC: To prawda. Rozmawiamy głównie z działami IT, które zajmują się infrastrukturą. Jeżeli nasze rozwiązania wnoszą wartość biznesową, to nasze kontakty z reguły są słabsze i są problemy z dotarciem do odpowiednich działów biznesowych.

Krzysztof Jakubik, Storagefocus: Co ze wskazywaną od niedawna potrzebą archiwizowania niektórych danych przez nawet sto lat? Na ile jesteśmy na to gotowi obecnie? Ustaliliśmy, że stosując migracje jesteśmy w stanie uzyskać dostęp do danych sprzed wielu lat. Ale co z ich zrozumieniem? Jeśli dzisiaj damy komuś plik Ami Pro sprzed 20 lat, to trzeba się będzie nieźle natrudzić, żeby go odczytać. Czy klienci zdają sobie sprawę z takich problemów?

Arthur Kilian, Tandberg Data: Często musimy to wyjaśniać. Niedawno miałem prezentację w Związku Archiwistów Polskich. Słuchacze ucieszyli się, że dane na taśmie można przechować przez 30 lat. Później jednak musiałem wyjaśnić, że trzeba spełnić pewne warunki, przede wszystkim zapewnić odpowiedni sprzęt i kompatybilne oprogramowanie. Przypomnijmy sobie polski edytor tekstów Tag czy choćby takie aplikacje jak Ami Pro czy Lotus 1-2-3. Jaka aplikacja jest dziś w stanie odczytać te pliki? Ludzie nie wiedzą, że migracja nie polega np. tylko na przegraniu danych z LTO-1 na LTO-4, ale też np. z Taga na Worda 95, a następnie na Worda 2007. Jeżeli już firmy chcą coś archiwizować, to starają się konwertować pliki na format PDF albo innego typu standardy, co do których wiadomo, że za 10 lat dadzą się odczytać w tym samym formacie.

Sylwester Pytkowski, Alstor: Jeden z naszych klientów ma duże wdrożenie archiwizacyjne w firmie telekomunikacyjnej. W jej wypadku system archiwizacji jest oparty na płytach CD, zaś dane przechowuje się w plikach tekstowych. Dzisiaj otworzy je każde narzędzie, bo zakładamy, że tablica ASCII raczej nie zmieni się w najbliższym czasie.

Daniel Olkowski, EMC: Zwróćmy uwagę na jeszcze jedną istotną sprawę. Mówiliśmy już o tym, że – po pierwsze – ważna jest żywotność nośnika, a po drugie – migracje i dostęp do danych po wielu latach. Trzecią ważną sprawą są aplikacje. Niezależnie od ich rodzaju, to klient sam musi zadbać, aby interfejsy aplikacji były kompatybilne z innymi stosowanymi przez niego rozwiązaniami. My jako dostawcy infrastruktury jesteśmy w stanie zapewnić dwa pierwsze elementy: trwały nośnik i dostęp do tego nośnika.

Tomasz Jangas, HDS: Jest jeszcze problem mechanizmu wyszukiwania. Jeśli mówimy o tym, że należy przechowywać dane przez 100 lat, to – zakładając że jest to możliwe – nie wiemy, czy za 100 lat uda się je odnaleźć. Nie mamy pojęcia, czy ludzie w XXII wieku będą myśleć tak samo jak my. Być może nie będą rozumieć naszych metod wyszukiwania.

Krzysztof Jakubik, Storagefocus: Czy orientujecie się, ile wasz średni statystyczny klient ma danych, które podlegają backupowi? Pomińmy tutaj banki i firmy telekomunikacyjne, które przechowują informacje liczone w petabajtach. Czy dla przeciętnej organizacji są to setki gigabajtów, czy już terabajty?

Arthur Kilian, Tandberg Data: Posłużę się najpierw przykładem swojej firmy. W naszej 60-osobowej organizacji backup obejmuje od 1 do 2 TB danych. Z mojego doświadczenia wynika jednak, że większych pojemności oczekują jednostki z sektora publicznego, być może dlatego, że mają większą swobodę wydatków. Przygotowywane dla nich systemy mają kilkanaście, kilkadziesiąt TB pojemności. Ale są to rozwiązania projektowane na 3-4 lata w przód, a nie na bieżące potrzeby.

Sylwester Pytkowski, Alstor: Jeśli chodzi o Alstora, to 80 procent naszych klientów wybiera systemy backupu o pojemności poniżej 1 TB.

Krzysztof Jakubik, Storagefocus: Czy to oznacza, że jeśli dziś trudno jest kupić macierz oferującą mniej niż 5-6 TB, to z oferty takich firm jak EMC czy HDS najlepiej sprzedają się rozwiązania najmniejsze?

Tomasz Jangas, HDS: Ilościowo tak. Jeśli chodzi o pojemność, to wydaje mi się, że średnia wypadałaby na poziomie 10 TB albo więcej. Oczywiście jest to duże uproszczenie, bo wszystko zależy od klienta. Są też tacy, co kupują terabajty jak ziemniaki.

Krzysztof Jakubik, Storagefocus: Jak statystycznie wygląda sprzedaż poszczególnych nośników? Czy w przypadku taśm LTO jest zdecydowanym faworytem? Wiadomo, że jest liderem jeśli chodzi o bieżącą sprzedaż napędów…

Arthur Kilian, Tandberg Data: Według grudniowych statystyk 52 proc. sprzedaży to nośniki LTO, a 38 proc. – DAT/DDS. Chodzi o sprzedaż liczoną w sztukach. Reszta to DLT, AIT, SLR. Takie wyniki są efektem bazy zainstalowanych rozwiązań. LTO wygrało wyścig technologiczny, jednak na początku były to bardzo drogie nośniki. Dlatego rynek zdominowały DAT/DDS. Baza tych urządzeń jest na tyle duża, że w dalszym ciągu dokupowane są nowe nośniki. Poza tym trzeba je często wymieniać ze względów technicznych. Można więc powiedzieć, że ich duża sprzedaż wynika po części z niskiej pojemności i awaryjności

Krzysztof Jakubik, Storagefocus: A jak jest z nośnikami magnetooptycznymi czy UDO?

Sylwester Pytkowski, Alstor: UDO nie mieliśmy w ofercie. Nośniki magnetooptyczne praktycznie zniknęły z rynku. Jeśli ktoś używał takich rozwiązań, przeszedł na systemy DVD. One jeszcze funkcjonują, ale są to rozwiązania sprzed paru lat. Nigdy zresztą nie zdobyły większej liczby klientów, bo wyparły je rozwiązania dyskowe. Tak jak wspomniałem, powoli rynek zdobywa Blu-Ray.

Krzysztof Jakubik, Storagefocus: Chciałbym, żebyśmy porozmawiali o parametrach ROI i TCO w kontekście pamięci masowych, porównując zarówno systemy dyskowe i taśmowe, jak też systemy archiwizacji i backupu.

Sylwester Pytkowski, Alstor: Przy współpracy z firmą DISC (dawniej znaną jako NSM), oferujemy urządzenia do archiwizacji dla mniejszych firm. Są to systemy oparte na nośnikach Blu-Ray, czyli technologii, która przyjęła się na naszym rynku. Dziś dyski Blu-Ray 50 GB są dostępne od ręki, a producenci zapewniają, że w 2012 roku dysk Blu-Ray o pojemności 500 GB będzie normą. System, o którym mowa, to duży magazyn, który przechowuje dyski i nie pobiera energii. Zużywa prąd tylko wtedy, gdy robot przekłada dyski między napędem a slotem, a także przy zapisie i odczycie danych. Napęd optyczny zużywa wtedy 15-20 W energii elektrycznej. Taki system nie jest wiele wart bez pamięci podręcznej, a zatem potrzebuje dysków twardych, jednak informacje przechowywane są generalnie na nośnikach optycznych.

Tego typu rozwiązania zaczynają wracać na nasz rynek. Sens ich stosowania był mniejszy, kiedy pojemność płyt DVD nie była wystarczająca do archiwizacji, a funkcję takich bibliotek przejęły dyski magnetyczne i nośniki taśmowe. Powoli jednak producenci zaczynają szukać prostych rozwiązań dla mniejszych firm. Systemy optyczne wracają więc do gry, wyróżniając się zaletami dawnych systemów archiwizacyjnych na płytach CD i DVD. Klienci pytają o nie coraz częściej. Oczywiście nikt nie chce tworzyć dużego systemu archiwizacyjnego na płytach, bo przy większych projektach rozwiązania dyskowe są konkurencyjne cenowo. Myślę jednak, że to dopiero początek zmian. Mam nadzieję, że systemy oparte na nośnikach optycznych znów zagoszczą u nas dobre.

Krzysztof Jakubik, Storagefocus: A więc w kontekście TCO to przewagę mają rozwiązania z wymiennymi nośnikami?

Tomasz Jangas, HDS: TCO nie sprowadza się tylko do kosztów energii. Jest jeszcze kwestia zarządzania systemami i tego, w jaki sposób zbudowane jest takie środowisko. Powiedzmy, że klient podzielił je sobie w następujący sposób: ma jakieś rozwiązanie produkcyjne i wykonuje kopie po to, żeby robić testy nowych wersji aplikacji. Potem wykonuje kolejną kopię, aby zrobić backup D2D2T. Klient tworzy replikację do drugiego ośrodka, do tego dochodzi backup i aplikacja, która ma zarchiwizować dane, czyli po jakimś czasie wyciągnąć je z produkcji i przenieść na ostatnią warstwę w środowisku pamięci masowych, czyli np. na taśmę albo na dysk magnetooptyczny. Często zdarza się tak, że każde z tych rozwiązań ma swoją aplikację i swoje zarządzanie. Trudno jest więc poszukać informacji w sposób horyzontalny. W tej sytuacji można zmniejszyć TCO poprzez konsolidację systemu za pomocą jednej aplikacji, która będzie w stanie robić backup, replikację i archiwizację. Będzie tworzyć wspomniane warstwy i przenosić dane w ramach pól storage’owych z produkcji na backup, a potem do archiwum w ramach jednego zintegrowanego środowiska. Oczywiście takie rozwiązanie nie jest przeznaczone dla małych i średnich firm, bo koszt jego wdrożenia przewyższyłby ewentualne oszczędności. Jednakże TCO przy większych projektach czasami również jest brane pod uwagę.

Daniel Olkowski, EMC: Zgadzam się, że już w tej chwili koszt zakupu systemów dyskowych i taśmowych jest porównywalny, ale nie do końca. Posłużę się tutaj przykładem. Załóżmy, że klient ma środowisko VMware o pojemności 4 TB, a ja mu sprzedaje przestrzeń dyskową o pojemności 2 TB. Na tych 2 TB klient jest w stanie trzymać backupy z retencją 30-dniową, a więc 30 kopii danych. Powstaje pytanie: czy sprzedałem mu 2 TB czy 60 TB? Ja oczywiście robię backup z deduplikacją, bo w środowisku wirtualnym byłoby szaleństwem kopiować sklonowane partycje zawierające te same dane. A zatem przerzucam na 2 TB przestrzeni tylko unikalne w skali całego środowiska bloki i dlatego jestem w stanie zmieścić backupy z 30 ostatnich dni. Biorąc pod uwagę takie możliwości systemu dyskowego, to koszt zakupu całości rozwiązania, czyli oprogramowania, mediów itd. byłby mniejszy niż systemu taśmowego, a funkcjonalność większa. Jestem w stanie w pojedyncze minuty dokonać backupu środowiska wielkości 4 TB, a przerzucenie 4 TB za pomocą jakiejkolwiek sieci zajmuje godziny. Jeżeli więc mówimy o TCO, to powstaje pytanie, co z czym porównujemy? Bo trudno porównywać w prosty sposób pojemności.

Arthur Kilian, Tandberg Data: Fakt, że trudno jest w prosty sposób porównywać koszty, jednak warto zauważyć, że taśmy są tańsze. My również mamy rozwiązania dyskowe i np. standardowy serwer NAS o pojemności 3 TB kosztuje około 5 tys. zł, a rozwiązanie taśmowe o porównywalnej pojemności – 2 tys. zł. Poza tym rozwiązania taśmowe łatwiej rozbudować, tzn. na tej samej półce można umieścić większą ilość nośników. Rozbudowywanie systemów dyskowych polega na tym, że dodajemy kolejne półki. Warto pamiętać, że większość kosztów utrzymania serwerowni i działów IT jest związanych z obsługą i w coraz większym stopniu z energią elektryczną. To jest ok. 70 proc. kosztów, reszta to m.in. software i hardware. Wyliczenie dokładnych wydatków np. na 3 lata do przodu jest trudne. Jeśli firmy zastanawiają się nad kosztami, to powinny zwracać uwagę na możliwość elastycznego rozbudowywania systemu, żeby np. nie było tak, że gdy skończy się pojemność albo wydajność, to trzeba wymieniać jakieś elementy na nowe. Łatwiej jest rozbudować system, który już istnieje.

Krzysztof Jakubik, Storagefocus: A czy w ogóle ktoś pyta o zwrot z inwestycji, czyli ROI? Czy robi się takie wyliczenia i czy w przypadku pamięci masowych mają one sens? Wydaje mi się, że dla backupu raczej nie, ale w archiwizacji można stosować takie porównania.

Tomasz Jangas, HDS: Co prawda rzadko, ale są klienci, którzy oczekują takich wyliczeń. Jestem akurat w trakcie projektu, w którym zajmujemy się właśnie takimi sprawami.

Daniel Olkowski, EMC: Tylko jak wyliczyć ROI? Przecież nie chodzi tylko o stałe koszty. Jeżeli mamy na przykład system archiwizacji, który zawodzi i nie jesteśmy w stanie w ciągu miesiąca dojść, gdzie aplikacja popełniła błąd, to powinniśmy wziąć pod uwagę koszty pracy ludzi, którzy się tym zajmują, jak również straty biznesowe, wynikające z tego, że nie udało się dotrzeć do informacji na czas.

Krzysztof Jakubik, Storagefocus: Wspomnieliśmy o warstwowości w pamięciach masowych. W tym kontekście przypomina się nośne do niedawna marketingowo określenie, czyli ILM – zarządzanie cyklem życia informacji. Tak szybko jak powstało, tak szybko zniknęło jakieś dwa lata temu. Czy wśród waszych klientów to hasło nadal funkcjonuje?

Tomasz Jangas, HDS: Funkcjonuje coraz częściej, chociaż rzeczywiście nie używa się już określenia ILM. Rozwiązanie to umożliwia oszczędzanie poprzez fakt, że najważniejsze informacje przechowuje się na dyskach droższych, bardziej niezawodnych, które w obrębie jednej macierzy są objęte większym reżimem serwisowym. Inne dane, które nie są już tak krytyczne, archiwizuje się na tańszych nośnikach. Taki podział jest coraz bardziej naturalny. Zresztą chyba każdy producent oferuje macierze, w których można instalować zarówno dyski Fibre Channel, jak i SAS czy SATA. W obrębie jednej obudowy tworzone są grupy RAID i wolumeny, które przechowują dane bardziej krytyczne, a inne przechowują kopie albo backup.

Daniel Olkowski, EMC: U nas ILM też jest aktualny. Klient, któremu kończy się wolna przestrzeń w archiwum ma trzy wyjścia – skasować część danych, dokupić drugi taki sam storage albo przerzucić dane na taśmy i odłożyć. To ostatnie rozwiązanie można porównać z wynoszeniem rzeczy na strych. Zazwyczaj o nich zapominamy, co oznacza, że w gruncie rzeczy nie są potrzebne. To po co je magazynować? Z reguły okazuje się, że w ciągu ostatniego miesiąca 80 proc. informacji przechowywanych w archiwum nikt nie dotykał. Nie ma więc sensu trzymać ich na drogich nośnikach, lepiej je przerzucić na storage z mniejszym reżimem serwisowym, z tańszymi dyskami, ale z dłuższym czasem dostępu. Zaoszczędzamy nie tylko na kosztach zakupu takiego systemu, lecz także na backupie.

Tomasz Jangas, HDS: Dla firm ważne jest nie tylko uporządkowanie informacji z działów produkcyjnych, lecz także ze skrzynek mailowych. Lepiej działają odchudzone skrzynki, więc jest to kolejny argument za tworzeniem archiwum. Zgadza się, że co najmniej 80 proc. przechowywanych informacji i tak nie jest wykorzystywanych. Są zresztą różne wyliczenia, np. SNIA mówi o 95 procentach. Są to dane o stałej treści, do których być może już nigdy nie wrócimy. Nie ma więc sensu zapychać nimi storage’u. Przenieśmy je do archiwum, najlepiej z online’owym dostępem. Można też informacje podzielić tak, że najpierw dane są archiwizowane z dostępem online, a po jakimś czasie zostaje tylko link do obiektu, który jest przechowywany gdzie indziej.

Krzysztof Jakubik, Storagefocus: Jak waszym zdaniem w Polsce przyjmują się wirtualne biblioteki taśmowe? Pierwotna koncepcja tych rozwiązań była taka, że VTL będzie dodatkową warstwą pomiędzy macierzą i serwerem a biblioteką taśmową. Tymczasem – skoro wiele firm nigdy nie miało prawdziwej biblioteki taśmowej, to po co im wirtualna biblioteka? Czy zwykła macierz wówczas nie wystarczy?

Tomasz Jangas, HDS: Często nie wystarczy, ze względu na ograniczenia macierzy związane z protokołem SCSI i związaną z nim rezerwacją pasma. W zwykłych rozwiązaniach, podczas wykonywania backupu przez jeden serwer, jest niemożliwe wykonywanie go przez drugi i kolejne. Wirtualna biblioteka taśmowa rozwiązuje ten problem. Jeżeli mamy kilka serwerów, które powinny mieć dostęp do danych, możemy go uzyskać z wykorzystaniem wirtualnej biblioteki taśmowej, która zastąpi bibliotekę tradycyjną i dodatkowo nie będzie wymagała zmiany oprogramowania.

Daniel Olkowski, EMC: Wirtualne biblioteki taśmowe w swojej pierwotnej koncepcji powstały po to, żeby rozwiązać problemy jakie stwarzają zwykłe biblioteki taśmowe. W rozwiązaniu wirtualnym możemy mieć tyle strumieni backupowych, czyli wirtualnych napędów, ile chcemy. W zwykłej bibliotece jesteśmy ograniczeni liczbą napędów fizycznych, które są najdroższym elementem. Warto zauważyć, że oprogramowanie backupowe preferuje oddzielne napędy taśmowe dla każdego serwera, a nie np. jeden napęd, który dziesięć serwerów współdzieli. Wirtualną biblioteką jest łatwiej zarządzać. Możemy zrobić dziesięć wirtualnych bibliotek i każdy serwer backupowy będzie widział swoją. W porównaniu do zwykłej biblioteki taśmowej VTL daje deduplikację, czyli coś w rodzaju bonusa dyskowego. Kupując 2 TB mamy do dyspozycji kilka razy więcej przestrzeni. Zaciera się więc różnica pomiędzy wirtualną biblioteką, a systemem storage’owym, bo systemy dyskowe też mają deduplikację online. Kolejna rzecz: zwykłą bibliotekę taśmową podłączamy do jednego serwera. Wirtualne biblioteki pozwalają również backupować systemy, które są w LAN-ie, a więc są czymś w rodzaju NAS-a. Zatem pewna część funkcjonalności zwykłych bibliotek i wirtualnych jest podobna, ale łatwość zarządzania VTL-em w porównaniu do zwykłej macierzy dyskowej jest dużo większa, nie wspominając już o braku problemów technicznych. Ale myślę też, że następna generacja backupu, czyli CDP, wyprze wirtualne biblioteki i napędy taśmowe.

Krzysztof Jakubik, Storagefocus: Dziękuję wszystkim za udział w naszym spotkaniu.

PODZIEL SIĘ

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ