Wirtualizować można wszystko, temu trendowi nie opierają się także pamięci masowe. Czy jednak wirtualizację powinna rozważać każda firma korzystająca z macierzy dyskowych? Czy dalej za wirtualizacją kryje się magiczna wiedza? Serwis Storagefocus zorganizował debatę z cyklu Arena Storagefocus poświęconą rozwiązaniom wirtualizacji pamięci masowych i ich przyszłości na polskim rynku.
Uczestnicy spotkania (od lewej):
- Dariusz Ferenc, IBM
- Roman Wojtaszek, Polcom Storage
- Krzysztof Jakubik, redaktor naczelny Storagefocus
- Arkadiusz Lewandowski, Symantec
- Jacek Browarski, HDS
- Tomasz Jaworski, EMC
Krzysztof Jakubik, Storagefocus: Użytkownicy pamięci masowych zgodnie podkreślają – wirtualizacja pamięci masowych wciąż jest tematem, w ramach którego trudno jest się im swobodnie poruszać, oferta firm jest trudna do porównania, a dostawcy często nie potrafią określić jakie realne korzyści mogą uzyskać użytkownicy, którzy zdecydują się na rozwiązanie do wirtualizacji pamięci masowych. Podczas tej dyskusji chcielibyśmy „wyprostować” tę wiedzę i przekazać garść informacji z polskiego rynku. Dlatego na początku chciałbym poprosić o podsumowanie, jakie rozwiązania związane z wirtualizacją mają wasze firmy w swojej ofercie.
Arkadiusz Lewandowski, Symantec: Nasza firma pozyskała rozwiązania do wirtualizacji pamięci masowych wraz z przejęciem firmy Veritas. Jest to – obecne już od kilkunastu lat na rynku – oprogramowanie Storage Foundation Volume Manager, które po zainstalowaniu na dedykowanym serwerze umożliwia klientowi zarządzanie różnymi zasobami pamięci masowych, a przez to uniezależnienie się od dostawców sprzętu. Storage Foundation Volume Manager obsługuje wszystkie rodzaje dysków, we wszystkich głównych modelach macierzy dyskowych wszystkich głównych producentów. W tym kierunku Symantec dalej podąża, tą metodą realizujemy koncepcję warstw w pamięciach masowych (tiered storage) czy przenoszenie danych z zachowaniem ciągłego dostępu do nich.
Jako odpowiedź na kryzys, ostatnio kładziemy nacisk na umożliwienie lepszego wykorzystania przestrzeni w pamięci masowych, bo okazuje się, że często utylizacja przestrzeni w macierzach jest na poziomie kilkunastu procent. Dzięki temu, że umożliwiamy klientom globalne spojrzenie na całość posiadanych przez nich zasobów pamięci masowych, mogą oni swobodnie decydować o dowolnym ich wykorzystaniu, już bez konieczności przypisywania jednej macierzy do konkretnego serwera czy aplikacji.
Jacek Browarski, HDS: Nawiązując trochę do historii, warto zwrócić uwagę, że praktycznie każda macierz ma coś wspólnego z wirtualizacją. RAID jest wirtualizatorem, dyski logiczne to też forma wirtualizacji. W każdej macierzy mamy wirtualizację już praktycznie od 10 lat, gdy przestało się mówić o geometriach dysków, a system plików został oddzielony od dysku fizycznego. Więc w obrębie macierzy ta wirtualizacja jest chlebem powszednim – mamy tam strukturę RAID, dyski logiczne, możliwość przesuwania dysków logicznych w ramach macierzy, kopiowanie, snapshoty itp. Cieszę się też, że już nawet na polskim rynku macierz dyskowa nie jest rzeczą unikalną i nie podchodzi się do niej jak do rozwiązania tylko dla dużych firm. IDC podaje, że prawie 80% systemów dyskowych w Polsce jest instalowanych w sieciach SAN, a więc nie jest to już tylko Direct Attached Storage. No i wreszcie przyszedł czas, że klienci dostrzegli te problemy, na które wskazujemy już od lat – klienci mają macierze od różnych producentów i zaczyna być mowa o wirtualizacji pomiędzy różnymi macierzami dyskowymi od różnych producentów, z których każdy ma swoje różne narzędzia do multipathingu, zarządzania, powielania i kopii, a przez to klienci zauważają potrzebę centralnego zarządzania.
Niby w sieci SAN dowolny serwer mógłby korzystać swobodnie z udostępnionych tak zasobów, ale okazuje się, że to nie jest takie proste. Oprogramowanie do multipathingu różnych producentów nie jest kompatybilne z macierzami konkurencyjnymi, trzeba też spełnić rygorystyczne wymagania, aby takie rozwiązanie było wspierane przez jego dostawcę. Jednym z wyjść jest wirtualizacja programowa, a więc różnego rodzaju rozwiązania do zarządzania woluminami, a drugim podejściem jest appliance w sieci SAN z volume managerem. Trzecią metodą jest to, co proponuje HDS od 6-7 lat, czyli wirtualizacja na poziomie kontrolerów macierzowych, gdzie wprowadziliśmy możliwość podłączania zewnętrznych systemów storage, po to, żeby można było je udostępniać w sieci SAN serwerom, tak jakby to były natywne przestrzenie dyskowe z macierzy HDS. Wtedy zarządzamy całym takim środowiskiem tak jak macierzami HDS, a cała różnica w zarządzaniu macierzami drugiego czy trzeciego producenta jest ukryta przez zaawansowane oprogramowanie wirtualizujące. Uważamy, że taka wirtualizacja ma sens dlatego, że jest realizowana na najniższym poziomie – najbliżej danych i najbliżej dysków.
Tomasz Jaworski, EMC: Moja firma oferuje rozwiązania do wirtualizacji zarówno w obrębie macierzy dyskowych (Symmetrix, Clariion), jak też urządzeń NAS (Celerra, Rainfinity). Wirtualizację dużego środowiska macierzy w przedsiębiorstwie umożliwia rozwiązanie EMC Invista, czyli oprogramowanie działające w SAN jednak poza ścieżką danych (ang. out-of-band). Ale chciałbym też wskazać na wirtualizatory, które często są pomijane, np. VMware Storage VMotion, który umożliwia osiągnięcie wielu funkcjonalności wirtualizacji przy pomocy oprogramowania firmy VMware.
Dariusz Ferenc, IBM: Wirtualizacja w systemie pamięci masowych może być wprowadzona na kilku warstwach. Możemy mówić o wirtualizacji na poziomie plików, gdzie główną korzyścią jest wspólna przestrzeń nazw (namespace) dostępna z wielu serwerów. W tym zakresie oferujemy rozwiązania GPFS (General Parallel File System), czyli rozproszony system plików, dostępny na rynku od ponad 10 lat. Mamy także wirtualizację na poziomie serwerów plików NAS – gdy mamy kilka takich serwerów od różnych producentów, możemy je zwirtualizować w jedną przestrzeń, nałożyć na nie wspólną domenę nazw oraz zarządzać nimi z jednego punktu i mieć jeden katalog dla wszystkich serwerów. Funkcjonalność tę umożliwia IBM Virtual File Manager w rozwiązaniach nSeries.
Natomiast najczęściej oferowana jest wirtualizacja na poziomie dysków, macierzy, czy pamięci masowej w sieci SAN. Tutaj skoncentrowaliśmy się na rozwiązaniu klasy in-band, czyli wstawieniu rozwiązania wirtualizacyjnego, opartego na sprzęcie i zainstalowanym na nim oprogramowaniu, które można dołączyć do – działających już w infrastrukturze – macierzy dyskowych i udostępnić jako wspólny zasób. SAN Volume Controller jest wyposażony w pamięć cache, która umożliwia przyspieszenie operacji (w szczególności zapisu), a także realizowanie zaawansowanych funkcji kopiujących. Także często wykorzystywanymi funkcjami wirtualizacji – szczególnie w macierzach ich pozbawionych – jest np. overalokacja czy thin provisioning. Ta wirtualizacja na poziomie sieci SAN często jest wykorzystywana do tworzenia ośrodków zapasowych, w szczególności kiedy użytkownik ma macierze od różnych producentów i nie ma szans na synchronizację danych pomiędzy systemami różnych producentów.
Roman Wojtaszek, Polcom Storage: W obszarze wirtualizacji jako dystrybutor i integrator nasza firma współpracuje z firmami FalconStor i 3Par. Z portfolio firmy FalconStor mogę wskazać rozwiązanie IPstor, które jest bezpośrednią konkurencją wspomnianego urządzenia IBM SVC. Natomiast wirtualizacja w macierzy 3Par jest zorganizowana w taki sposób, że będąc praktycznie niewidoczną dla użytkownika, pozwala zwirtualizować całą przestrzeń dostępną w macierzy. Tradycyjnie budowa czy przebudowa konstrukcji RAID jest ograniczona pewną liczbą dysków, natomiast model wirtualizacji wykorzystany przez 3Par pozwala rozprowadzić te wolumeny i grupy RAID na wszystkie dyski, jakie są w macierzy.
Krzysztof Jakubik, Storagefocus: W waszych wypowiedziach bardzo często pojawiały się potrzeby klienta. Czy moglibyśmy doprecyzować to hasło? Jakie są modele klientów, czy jest to tylko ten naturalny podział na niedoinwestowany rynek SMB i duże przedsiębiorstwa, które mają bardzo dużo macierzy? Jaki rodzaj klientów trafia do Was z zapytaniami odnośnie wirtualizacji i jakie są potrzeby tych klientów?
Arkadiusz Lewandowski, Symantec: Do nas trafiają głównie duzi klienci – sektor finansowy i telekomunikacyjny. Klienci, którzy mają dużo zasobów i powstaje u nich problem z zarządzaniem pamięciami masowymi, ponieważ są one rozproszone po różnych działach. Tam często zdarza się, że jeden dział preferuje takiego dostawcę macierzy, zaś drugi – innego. Natomiast gdy nadchodzi czas oszczędzania, to okazuje się, że jedna macierz jest wypełniona po brzegi, a na drugiej zajęte jest mniej niż 10 procent i raczej nie należy spodziewać się szybkiego, dużego przyrostu danych. Oprócz tego, że gołym okiem widać ten rozrzut proporcji utylizacji, to za dwa-trzy lata pojawią się kolejne technologie i ta druga macierz, przez cały cykl swojego życia zupełnie niewykorzystana, zostanie pominięta i zapomniana. Dlatego łączymy wirtualizację z zarządzaniem zasobami. W ramach prowadzonej akcji „Stop buying storage” zachęcamy klientów, aby zaczęli lepiej zarządzać tym, co już kupili, a więc przez pewien okres czasu wstrzymali się z kupowaniem nowych pamięci masowych. Dostarczamy narzędzia do wykrycia wszystkiego, co klient już ma, przeanalizowania i lepszego wykorzystania tych zasobów. Chcemy, aby klienci zaczęli traktować pamięć masową jako jedną całość.
Tomasz Jaworski, EMC: Ja chciałbym trochę prowokacyjnie powiedzieć, że wirtualizacja jest niepotrzebna. Jest to zagadnienie, wobec którego często słyszy się negatywne wypowiedzi: że jej nie ma, że jej jeszcze nikt nie zastosował, i że generalnie wchodzi kuchennymi drzwiami, na różnych poziomach. Tymczasem stosujemy już teraz rozwiązania do wirtualizacji i często sobie nie zdajemy z tego sprawy. Dzieje się to trochę inaczej, niż się tego spodziewaliśmy, bo pierwsze takie koncepcje wirtualizacyjne mówiły o wirtualizacji wszystkich macierzy. Niezależnie od położenia fizycznego dysku miały umożliwiać przechowywanie i przenoszenie danych. Okazało się natomiast, że taka zaawansowana platforma wirtualizacji nie jest tak często klientom potrzebna. Klienci korzystają z tego w określonych przypadkach np. kiedy wymieniają macierze (czy to w obrębie migracji danych z macierzy na macierz, czy to pomiędzy producentami). Stosują wirtualizację w środowiskach testowych – bardzo często w cyklu produkcyjnym oprogramowania następuje migracja pomiędzy macierzami dyskowymi. Uważam na przykład, że niekoniecznie trzeba kupować tak zaawansowane oprogramowanie, o którym mówił przedstawiciel Symanteca. Często wystarczy, gdy każdy z producentów dostarczy swoje narzędzie do optymalizowania zasobów. Klienci kupują często oprogramowanie wykonujące takie zadania już wraz z macierzą dyskową…
Arkadiusz Lewandowski, Symantec: Tak, ale to oprogramowanie działa tylko w pewnych fragmentach, tymczasem nasze działa na całym poziomie sieci – od przełączników SAN i iSCSI, aż do poziomu macierzy, JBOD czy DAS. Obejmujemy całość – wszystkich liczących się na rynku producentów. Nie mówimy tylko o sprzęcie, mówimy także o wykorzystaniu zasobów. Ale wiadomo też, że niektóre macierze są lepsze do pewnych zastosowań i również ten czynnik bierzemy pod uwagę w naszym oprogramowaniu, aby sklasyfikować środowisko na różne typy macierzy. Nasze ostatnie badania pokazują, że tylko 35-45% zasobów pamięci masowych jest wykorzystanych. Reszta leży odłogiem i czeka na lepsze czasy.
Jacek Browarski, HDS: Ten problem tzw. wysp bierze się stąd, że zakupy pamięci masowych bardzo często odbywają się na potrzeby konkretnego projektu. Na każdy projekt kupujemy inne macierze, przełączniki itp. Potem kolejny projekt itd. Dopiero teraz, szczególnie w dużych firmach, gdzie zaczyna się obcinać budżety na wydatki inwestycyjne, zaczyna się szukać oszczędności i zastanawiać: może rzeczywiście tchnąć drugie życie w systemy pamięci masowych? Zgadzam się, że jedną z metod jest wykorzystanie narzędzi do poprawienia utylizacji. W obrębie własnych rozwiązań mamy takie narzędzia, podobnie zresztą jak cała konkurencja. Ale ich sprzedaż nie idzie najlepiej. Parę razy próbowałem sprzedawać takie oprogramowanie Storage Resource Management klientowi, próbując wykazać ile on ma zasobów pamięci masowych i napotkałem bardzo duży opór mentalny, bo wiadomo, że jeżeli wiedza tajemna zaczeka wyciekać do zarządu, to nagle pracownicy tracą na ważności. Nieistotne staje się to, że administrator wie wszystko, zarząd może się zalogować do przeglądarki, zobaczyć wszystko – spotkałem się z dużym oporem działów IT wobec takich rozwiązań.
Arkadiusz Lewandowski, Symantec: Dlatego to rozwiązanie powinno być sprzedawane osobom, które decydują o wydatkach na IT w firmach. Paradoksalnie, dla wirtualizacji kryzys może być takim katalizatorem. Fakt, że firmy mają obcięte budżety, a przez to próbują lepiej wykorzystać już posiadane zasoby, może trochę rozruszać ten rynek.
Tomasz Jaworski, EMC: Ważnym wątkiem naszej dyskusji powinno być to, jak firmy mogą poradzić sobie z nieubłaganym 60% wzrostem ilości danych w niekorzystnych warunkach – gdy budżety IT rosną na niewystarczającym poziomie, a w wielu firmach są po prostu obcięte. Taka sytuacja rzeczywiście może być katalizatorem dla wirtualizacji i wiele firm może po wirtualizację sięgnąć. My spodziewamy się tego bardziej na poziomie thin provisioningu i rozwiązań macierzowych, niż „nakrywania czapką” całego środowiska macierzy. Dla tego rynku widzimy klientów przede wszystkim wśród dużych przedsiębiorstw, chociaż dla firm mniejszych też możemy stworzyć ciekawe rozwiązania.
Warto też zauważyć, że klienci nie są zainteresowani wirtualizacją jako taką, ale są zainteresowani posiadaniem odpowiedniej przestrzeni składowania, działającej z określoną wydajnością. Natomiast sposób w jaki zostanie to zrealizowane, zależy od wielu uwarunkowań. Dlatego powstają wspomniane już wyspy. Ale do pamięci masowych można też podejść w inny sposób – jeżeli mamy wiele wysp, w których znajdują się różne rozwiązania, to może warto pomyśleć o konsolidacji, która w pewnym sensie jest konkurencją wirtualizacji. Po przeprowadzeniu konsolidacji także możemy mieć pełną kontrolę nad zasobami, jesteśmy w stanie w każdej chwili powiedzieć, gdzie znajduje się nasz wolumen, z jaką wydajnością działa i jak będzie działał, gdy przeniesiemy go na inną macierz. Przy wirtualizacji sprawa jest trudniejsza.
Roman Wojtaszek, Polcom Storage: Wirtualizacja nie może być czymś, co przeszkadza użytkownikowi w realizacji jego codziennych zadań. Ma sens tylko wtedy, kiedy daje konkretne, wymierne wartości dodane w postaci wydajności czy uproszczenia zarządzania zasobami. W macierzach 3Par zostało to zrobione tak, aby osiągnąć takie możliwości. Różni się to tym, że zostały wprowadzone dodatkowe warstwy logiczne, które nie muszą być zauważane przez użytkownika, ale pozwalają w łatwy sposób konstruować wolumeny i zarządzać tymi danymi. Klasycznym przykładem jest moment skalowania macierzy, kiedy rozbudowujemy je o kolejne półki dyskowe – w praktyce polega to na tym, że administrator musi przeorganizować grupę RAID. Tutaj, przy pomocy prostych poleceń, jesteśmy w stanie rozdystrybuować wolumen na wszystkie dyski, które pojawią się w obrębie macierzy. Administratorzy bardzo chwalą sobie tę właściwość.
Dariusz Ferenc, IBM: My mamy do czynienia z bardzo szerokim wachlarzem klientów. Czasami sami dziwimy się, jacy klienci proszą o wirtualizację, przy czym nie proszą wprost, a proszą o projekt rozwiązujący ich problem. Potwierdzam, że w czasach kryzysu firmy zaczęły patrzeć na lepszą utylizację zasobów, nie tylko poprzez stopień wykorzystania macierzy, ale także z poziomu aplikacji. Coraz częściej spotykamy się z wewnętrznymi rozmowami w firmach, w ramach których dostawcy aplikacji lub działy developerskie są proszeni o optymalizację aplikacji pod względem wymagań wydajnościowych i pojemnościowych dla macierzy. Ta swoboda, którą mieli dotychczas w pisaniu pożerających dużą ilość zasobów aplikacji bazodanowych, powinna się skończyć.
Decydując się na wirtualizację klient powinien mieć zagwarantowaną możliwość rozwoju. Dla małych i średnich firm mamy SAN Volume Controller Entry Edition, który potem może być rozbudowany do wersji standardowej. Zauważamy, że ostatnio średni czas trwania projektu stał się bardzo krótki, znacznie krótszy niż wcześniej. W ramach danego projektu często muszą następować rekonfiguracje środowiska, z reguły wydłużając czas trwania projektu, na co szef danego projektu najczęściej nie jest w stanie sobie pozwolić, żeby projekt nie był zagrożony. I tutaj wirtualizacja przychodzi z pomocą. Często też zauważamy, że system testowy w firmie w niezauważalnym momencie staje się produkcyjnym. Także tutaj aplikacja testowa, uruchomiona na tańszych zasobach, może być bardzo szybko przeniesiona do bardziej wydajnego środowiska i od razu rozpocząć pracę w trybie produkcyjnym. Dzięki temu administratorzy zapytani o to jak minął weekend, nie reagują już nerwowo, bo nie musieli właśnie przeprowadzać reorganizacji zasobów czy wymiany macierzy.
Roman Wojtaszek, Polcom Storage: Proszę zwrócić uwagę, że thin provisioning i inne trendy, o których mówimy, przyszły z USA, gdzie rzeczywiście w różnych badaniach wychodzi jak mało są utylizowane zasoby pamięci masowych w firmie. W Polsce jest z tym trochę lepiej. Natomiast w kontekście thin provisioningu – dobrze, że jest on przezroczysty dla każdego systemu operacyjnego, bo poddawane jest to czasem w wątpliwość. Jeśli całe rozwiązanie jest dobrze zaprojektowane, to system operacyjny na warstwie hosta nie ma prawa widzieć warstwy thin provisioningu. Jednak wprowadzenie thin provisioningu do pamięci masowych czasem napotyka na opór dyrektorów działów. Oni z reguły budżetują jakąś kwotę na projekt, chcą wydać te pieniądze i mieć zabezpieczone zasoby. Thin provisioning wiąże się z tym, że od czasu do czasu trzeba do macierzy dyskowej kupić kolejne dyski. To z kolei uruchamia procesy decyzyjne, które często trwają miesiącami.
Dariusz Ferenc, IBM: Odnośnie thin provisioningu, chciałbym podjąć jeszcze jeden temat – on rezerwuje przestrzeń wraz z zapisem kolejnych danych. W tym momencie bardzo ważne także jest to, żeby system umożliwiał odzyskanie przestrzeni, gdy skasujemy większą ilość danych z systemu plików. W praktyce niestety różnie to wygląda. Na początku, gdy tylko zapisujemy dane jest wszystko w porządku, ale po pewnym czasie, gdy dochodzimy do końca fizycznych możliwości macierzy dyskowej, chcemy część danych skasować, a to może nie poskutkować odzyskaniem miejsca.
Tomasz Jaworski, EMC: Podobnie zresztą jest z wirtualizacją – słabym punktem niektórych rozwiązań do wirtualizacji jest operacja odwrotna („odwirtualizowanie”). Przy konsolidacji ten problem nie występuje, ale klienci często pytają, czy możliwe jest pozbycie się wirtualizatora i dalsza praca bez wirtualizacji. Natomiast my zjawisko thin provisioningu widzimy jeszcze szerzej, zwracamy także baczną uwagę na wydajność takich wolumenów, na to jak thin provisioning jest realizowany w kontekście replikacji macierzy, jak prowadzony jest monitoring. Przykrą rzeczą dla administratora byłoby, gdyby dowiedział się o całkowitym zapełnieniu macierzy dyskowej w momencie, gdy przestaje mu działać aplikacja.
Krzysztof Jakubik, Storagefocus: Czy skuteczna może okazać się próba dokonania porównania funkcjonalnego poszczególnych rodzajów wirtualizacji?
Arkadiusz Lewandowski, Symantec: Z punktu widzenia technologii i funkcjonalności, wirtualizacja realizowana za pomocą oprogramowania i appliance’ów jest podobna. Oczywiście oba elementy są gdzie indziej zainstalowane, ale funkcjonalność jest bardzo podobna. Wirtualizacja realizowana w macierzy odbywa się na poziomie struktury RAID, i – generalnie – rozwiązania sprzętowe są ograniczone odnośnie liczby obsługiwanych modeli macierzy dyskowych, a poza tym macierze z funkcjami wirtualizacji powinny być bardziej wykorzystywane w projektach konsolidacji – jako narzędzie do jej przeprowadzenia, przy przenoszeniu danych ze starych macierzy na nowe. Dla takich projektów dobrym rynkiem są małe i średnie firmy, dla których stara macierz nie jest urządzeniem, które się wyrzuca bądź przenosi do środowiska testowego, ale z którego nadal się korzysta. Takie firmy są awangardą wirtualizacji pamięci masowych, zresztą wirtualizacji serwerów chyba też, bo te większe firmy przekonują się do tego z oporami, a małym znacznie łatwiej to idzie.
Dariusz Ferenc, IBM: Generalnie trzeba odróżnić wirtualizację w macierzy od wirtualizacji w sieci SAN. Jeśli ktoś chce zwirtualizować wiele zasobów w jeden, to powinien wziąć appliance lub oprogramowanie. A jeśli ktoś chce mieć bardzo proste zarządzanie i nie martwić się o optymalną konfigurację macierzy lub jej wydajność, to powinien kupić zwirtualizowaną macierz, w której praktycznie udostępnienie wolumenu sprowadza się do tego, że po paru kliknięciach myszką można daną przestrzeń udostępnić serwerowi.
Krzysztof Jakubik, Storagefocus: Czy zatem wirtualizacja musi być kompromisem między funkcjonalnością a wydajnością?
Dariusz Ferenc, IBM: Z paroma nielicznymi wyjątkami, nie ma wdrożeń wirtualizacji, gdzie nie byłaby poprawiona wydajność. Wirtualizacja wprowadza pewne opóźnienia, ale jest to 60 mikrosekund, czyli mniej niż 1% czasu operacji I/O. Nie ma to więc znaczenia dla macierzy, bo jeżeli jakikolwiek system działa w obciążeniu 99%, to praktycznie nie działa. Ta wydajność na pewno nie jest pogarszana, jeśli wirtualizacja jest poprawnie wdrożona, natomiast dzięki swojej funkcjonalności, której z reguły nie ma wirtualizowana macierz – wirtualizacja może poprawić wydajność, ale w jakim stopniu – to już zależy od konkretnego przypadku. Często też zdarza się, że klienci kupują SVC i licencję na replikację do centrum zapasowego, bo to wychodzi taniej niż sama licencja na replikację sprzedawana przez producenta zaawansowanych macierzy.
Krzysztof Jakubik, Storagefocus: Czy przy wirtualizowaniu wielu macierzy dyskowych, są one dzielone na klasy, w zależności od swojej wydajności?
Tomasz Jaworski, EMC: Każdy wirtualizator powinien to umożliwiać. Ale trzeba też pamiętać o jednej ważnej rzeczy – w momencie, gdy wprowadzamy wirtualizator, dajemy administratorowi ogromną władzę, bo może on wtedy popełnić duży błąd, np. rozpinając wolumen miedzy dyskami flash lub Fibre Channel a dyskami SATA. Dlatego trzeba pamiętać o odpowiedniej edukacji administratorów, aby sprawnie umieli zarządzać całym środowiskiem.
Dariusz Ferenc, IBM: Ale koszty zarządzania jednym wirtualizatorem jest i tak znacznie niższy niż koszt edukacji kilku administratorów – każdego do swojej macierzy dyskowej.
Tomasz Jaworski, EMC: Niestety, wiemy, że w praktyce w firmach są nie tylko wyspy infrastrukturalne, ale także wyspy kompetencyjne. Często spotykamy się ze zjawiskiem, że mamy królestwa, każdy dział chce mieć swój osobny storage i chce nim zarządzać. Kto wtedy będzie zarządzał wirtualizatorem?
Dariusz Ferenc, IBM: Jeżeli chcemy mieć klasę na poziomie plików i definiować, że plik o danej wielkości lub o danym rozszerzeniu ma trafić do konkretnej puli, to stosujemy wirtualizację na poziomie plików w jednej wspólnej przestrzeni nazw. Wtedy, w zależności od polityk, możemy zarządzić na jak wydajny i niezawodny dysk on trafi. Ale jeśli chcemy mieć taki sam podział w wolumenach lub chcemy scentralizować wiele macierzy, to stosujemy wirtualizację w sieci SAN. Jeżeli istnieje potrzeba połączenia istniejących już wielu macierzy, to kupujemy appliance wirtualizacyjny, który łączy wszystko razem. Jeżeli potrzebujemy zwiększyć także pojemność lub zasoby dyskowe, to wtedy możemy kupić macierz, która dodatkowo posiada elementy wirtualizacyjne lub w taki kontroler doposażyć dowolną inną macierz.
Arkadiusz Lewandowski, Symantec: Główną korzyścią płynącą z wirtualizacji jest funkcjonalność, bo do zwiększenia wydajności możemy zastosować konsolidację. Wirtualizacja daje najlepsze zwiększenie efektywności zarządzania pamięcią masową w naszej firmie, pomaga w zlikwidowaniu wysp, a jeśli mamy dobre oprogramowanie, które będzie analizowało co się w tej infrastrukturze dzieje, to będzie ono jeszcze podpowiadać w jaki sposób to lepiej zwirtualizować. Natomiast podczas tworzenia koncepcji przebudowy środowiska musimy sami sobie odpowiedzieć na to pytanie: co chcemy osiągnąć.
Krzysztof Jakubik, Storagefocus: W jaki sposób porównywać ze sobą oferty od różnych dostawców rozwiązań wirtualizacji, aby to miało sens? Kluczowym aspektem prawdopodobnie będzie koszt takiego rozwiązania, ale z pewnością nie jest to jedyne kryterium…
Dariusz Ferenc, IBM: Klient musi sam określić, jakiej funkcjonalności oczekuje i czy zaoferowane mu rozwiązanie taką funkcjonalność spełnia.
Tomasz Jaworski, EMC: W tego typu przetargu klienci z pewnością mieliby bardzo duży problem z takim ustawieniem kryteriów zapytania ofertowego, aby później móc zestawić otrzymane propozycje w jednej tabeli. Wszystkie oferowane na rynku rozwiązania są inne, służą do innych celów.
Krzysztof Jakubik, Storagefocus: Czy zatem składanie zapytań ofertowych na wirtualizację i porównywanie ich nie ma sensu?
Arkadiusz Lewandowski, Symantec: Jeśli już mówimy o porównywaniu, to klient raczej będzie patrzył na zwrot z inwestycji, a nie na koszt rozwiązania. Natomiast najczęściej klient będzie stawiał na jedno rozwiązanie, weźmie je do testów i jeśli mu ono będzie pasować, to postara się uzyskać jak najlepszą cenę.
Krzysztof Jakubik, Storagefocus: Ale na co zwrócić uwagę przy testowaniu?
Jacek Browarski, HDS: Bardzo ważnym kryterium jest wydajność. Klient powinien dowiedzieć się, ile operacji wejścia-wyjścia na sekundę przechodzi w jego sieci. Potem powinien testowo zainstalować rozwiązania od kilku dostawców i przetestować je. Ale z mojego doświadczenia, to klientowi najtrudniej jest określić jego zapotrzebowanie. Najczęściej dostajemy dane fragmentaryczne, natomiast sukces całego projektu zależy od bardzo dokładnego policzenia i sprawdzenia środowiska produkcyjnego.
Arkadiusz Lewandowski, Symantec: Potwierdzam to. My staramy się przetestować środowisko bezpośrednio u klienta, bo nie zawsze możemy otrzymać wszystkie istotne dane na odległość.
Tomasz Jaworski, EMC: Ja, będąc klientem, uwzględniłbym to, jakich producentów i jakie macierze posiadam w swoim centrum danych – to jest podstawa. A więc bardzo dokładne sprawdzenie listy kompatybilności. Poza tym ważna jest oczekiwana wydajność i charakterystyka ruchu – jakie są proporcje między odczytem i zapisem i czy jest to zapis/odczyt sekwencyjny, czy też bardziej losowy. No i czego oczekujemy od strony zarządzania – co chcemy uzyskać, czy chcemy dać kilku departamentom możliwość rozrzucania wolumenów, czy chcemy replikować dane w układzie disaster recovery, czy tez chcemy tylko kopie lokalne. Mając taką specyfikację inicjalną, konieczne jest wykonanie proof-of-concept. Finalnie czasami okazuje się, że klient potrzebuje zupełnie innego rozwiązania niż to, o którym pierwotnie myślał.
Dariusz Ferenc, IBM: Tu z pomocą przychodzą konsultanci takich firm jak nasza, którzy maja duże doświadczenie. Poza tym zauważmy, ze my wirtualizujemy istniejące systemy, czyli mamy już jakieś macierze, działają aplikacje, więc możemy zebrać dane, uwzględnić procentowy wzrost, jeżeli są instalowane nowe aplikacje, których wymagania są niemałe, to też trzeba je uwzględnić. A jeśli takie dane trudno zebrać, to trzeba odnieść się do wyników testów jakichś organizacji niezależnych, np. Storage Performance Council. Ale najlepszą metodą jest proof-of-concept i to najlepiej na danych klienta.
Tomasz Jaworski, EMC: Proof-of-concept daje możliwość sprawdzenia jednej ważnej funkcji, czyli disaster recovery. Odtwarzanie środowiska zwirtualizowanego od zera to jest bardzo ważny element, który jest często pomijany i często ukrywany przez różne firmy oferujące wirtualizację. Najważniejsze jest sprawdzenie, czy jeżeli dane są na wirtualizatorze, który nagle stracimy, to czy dalej dane na macierzach są spójne.
Jacek Browarski, HDS: Klientom proponujemy także usługę Storage Assesment, w ramach której nasz konsultant na tydzień uruchamia w sieci klienta kilku agentów mierzących oczekiwaną wydajność wobec systemu wirtualizującego. Po takiej usłudze jesteśmy w stanie opisać klientowi gdzie wirtualizacja się sprawdzi, a gdzie nie. Obie te usługi są płatne, ale jeśli firma podchodzi do zagadnienia poważnie, to odpowiedzi na te pytania będą warte dla niej dużo pieniędzy.
Dariusz Ferenc, IBM: Często po takiej analizie może się też okazać, że można dokonać różnych modyfikacji w istniejącej strukturze pamięci masowych, co będzie prowadzić do rezygnacji z planów wdrożenia wirtualizacji pamięci masowych na rok czy dwa lata.
Krzysztof Jakubik, Storagefocus: Jak oceniacie polski rynek odnośnie zaawansowania i dojrzałości do wdrażania rozwiązań wirtualizacji pamięci masowych?
Tomasz Jaworski, EMC: Wobec tradycyjnej wirtualizacji pamięci masowych z poziomu hosta rynek jest dojrzały i rozpoznany przez klientów. Ci, którzy jej potrzebują, nie obawiają się jej stosować. Jeśli chodzi o wirtualizację plików, to też jest to rozwiązanie zaakceptowane przez klientów i często stosowane. Wirtualizacja wewnątrz jednej macierzy, włącznie z technologią thin provisioning, to także jest dojrzały rynek, ale wciąż rosnący. Rozwiązania do wirtualizacji wokół VMware, np. Storage VMotion, to jest bardzo szybko rosnący segment i warto go obserwować. Natomiast do wirtualizacji na poziomie wielu niewykorzystanych macierzy i tworzenia z nich jednego zasobu klienci podchodzą bardzo ostrożnie i starają się rozwiązywać takie sytuacje poprzez konsolidację.
Roman Wojtaszek, Polcom Storage: Polski klient generalnie chce kupić rozwiązanie, przy czym czasami startuje z bardzo małą ilością danych i wraz z rozwojem swojego biznesu chce mieć możliwość dokładania nowych dysków. Potrzebuje więc wielofunkcyjną skalowalną macierz, zawierającą wirtualizację działającą w obrębie macierzy, żeby później nie musieć myśleć o wirtualizacji konsolidującej różne macierze. Ale jest też wielu klientów, którzy mają dużo starych macierzy dyskowych i wciąż boją się zainwestować w rozwiązanie typu SVC czy IPstor.
Arkadiusz Lewandowski, Symantec: Na polskim rynku nadal jest wiele macierzy kupionych 3-4 lata temu, i mimo że są technologiczne przestarzale, to klienci dalej chcą ich używać. Zresztą często krążą one w drugim obiegu. To, co kupiła duża firma 3-4 lata temu, dziś dla średniej firmy będzie nadal ogromną macierzą z funkcjonalnością przekraczającą oczekiwania.
Roman Wojtaszek, Polcom Storage: Tu pojawia sie problem klasyfikacji macierzy na low-end i enterprise. Jeżeli klient uważa, że ma niewielkie wymagania i kupuje prostą macierz, a przez przypadek poszczęści mu się w biznesie, to zostaje z macierzą low-end, z którą później nic nie będzie mógł zrobić. Pojawia się też kwestia skomplikowania produktu i wymogu edukacji administratorów. a później kosztu ich wynagrodzenia. Dlatego im prostszy jest produkt, tym większe z niego realne korzyści. Czasami trudno jest znaleźć dobrego informatyka, szczególnie w mniejszych miejscowościach. Tam często zdarzają się tacy, którzy boją się zalogować do macierzy żeby sprawdzić, czy przypadkiem nie ma błędów w logach. Tych zaawansowanych administratorów pamięci masowych w Polsce jest niestety mały procent.
Dariusz Ferenc, IBM: Proszę zauważyć, że być może za kilka lat to nie dyski będą stosowane jako nośnik danych w macierzach dyskowych. I to właśnie wirtualizacja pomoże w płynnym przejściu na nowe technologie, bez konieczności zatrzymywania pracy aplikacji. Polska jest już dojrzałym rynkiem, zresztą chyba największym w Europe Środkowej i coraz więcej firm, także małych i średnich, ma wymóg ciągłego dostępu do swoich systemów i danych. Już praktycznie nie spotykam się z klientami, którzy mówią, że w weekend mogą wykonywać jakieś prace, bo te są u nich zaplanowane na wiele miesięcy naprzód. Polska jest naprawdę dużym rynkiem do wirtualizacji.
Krzysztof Jakubik, Storagefocus: Dziękuję wszystkim za udział w naszym spotkaniu.