Wirtualny chaos

0

Nowi producenci na rynku wirtualizacji pojawiają się jak przysłowiowe „grzyby po deszczu”. Przy braku standardów i najróżniejszych możliwych kombinacjach produktów sytuacja staje się alarmująca. Powstały już pierwsze standardy, a w przygotowaniu są kolejne. Zanim jednak się upowszechnią, firmy na różne sposoby radzą sobie z zapewnieniem kompatybilności pomiędzy różnymi rozwiązaniami.

Obecnie sytuacja jest stabilna, ponieważ VMware zdominował rynek i produkty tej firmy praktycznie stały się niepisanym standardem. Są jeszcze inni, poważni gracze, jak Microsoft i Citrix, chcący również mieć znaczny udział w rynku wirtualizacji. Jednak użytkownicy będą chętniej wybierać produkty VMware, dopóki utrzyma dotychczasową, dużą przewagę technologiczną, co będzie trudnym zadaniem.

Microsoft zapewne zdominuje rynek hypervisorów, ponieważ Hyper-V jest dostarczane w pakiecie z Windows Server 2008, co ogranicza koszty wirtualizacji. Użytkownicy mogą wybierać to oprogramowanie, nawet jeśli konkurencja ma lepsze produkty. Na razie jednak Hyper-V jest rozwiązaniem odpowiednim raczej do mniejszych środowisk, ze względu na brak zaawansowanych funkcjonalności i narzędzi do zarządzania.

Przede wszystkim standardy

Szukając sposobu uniknięcia problemów z brakiem kompatybilności, firmy decydują się na zamknięte, zastrzeżone rozwiązania. W przyszłości grozi to przykrymi konsekwencjami, np. brakiem potrzebnych funkcji, jeśli dostawca rozwiązania nie ma ich w swojej ofercie.

Branża rozumie potrzebę standaryzacji i zagrożenie chaosem. W listopadzie 2007 roku opublikowany został pierwszy standard, opisujący metody tworzenia wirtualnych systemów i zarządzania nimi. Kolejnym opracowanym standardem jest Open Virtualization Format (OVF), mający uprościć interoperacyjność, bezpieczeństwo i zarządzanie wirtualną infrastrukturą.

Standard OVF jest wspierany przez społeczność użytkowników i głównych producentów, m.in. VMware, Microsoft, Citrix, HP i Dell. Organizacja Distributed Management Task Force (DMTF) planuje uruchomienie procedur certyfikacyjnych dla platform wirtualizacyjnych, potwierdzających ich zgodność ze standardem. Jednak opublikowanie standardu nie jest jeszcze rozwiązaniem obecnych problemów. Okaże się on przydatny dopiero, gdy zostanie powszechnie wdrożony przez dotychczasowych i nowych producentów na rynku wirtualizacji. Dużo również zależy od szczegółów technicznych samego standardu.

Upowszechnienie się standardu daje korzyści klientom: swobodniejszy wybór rozwiązań oraz łatwiejsze zarządzanie standardowym, homogenicznym środowiskiem. Wprawdzie standardy są projektowane dla producentów, ale z pewnością użytkownicy będą chętniej wybierać produkty zgodne z OVF.

Elastyczność
Ważna cechą infrastruktury IT jest jej elastyczność. Gdy wirtualizacja odgrywa coraz większą rolę, zróżnicowanie produktów do wirtualizacji stawia klientów w trudnej sytuacji wybrania najlepszego rozwiązania. Tymczasem wybór określonego rozwiązania może wpływać na inne aspekty infrastruktury IT. Przykładowo, platformy wirtualizacyjne VMware, Citrix i Microsoft nie są ze sobą kompatybilne, przez co nie da się łatwo wymienić między nimi danych. VMware ma szereg dodatkowych produktów, ale zgodnych tylko z własną platformą.

Jest grupa niezależnych producentów, którzy oferują rozwiązania do zarządzania niezależne od platformy wirtualizacyjnej. Przykładem jest firma Fortisphere, której produkty są zgodne z platformami VMware, Citrix oraz Microsoft. Dają one obraz całego wirtualnego środowiska, umożliwiają kontrolowanie go i automatyzację części czynności. Z kolei HP oferuje produkt Insight Dynamics – VSE, umożliwiający analizowanie oraz optymalizowanie środowisk fizycznych i wirtualnych. Zdaniem firmy to narzędzie do zarządzania może zredukować koszty typowych zadań w centrach danych nawet o 40%.

Wymogi prawne
Za wprowadzeniem standaryzacji przemawiają również wymagania prawne, które muszą spełniać firmy działające w takich branżach, jak farmaceutyki czy bankowość. Zanim zwirtualizują swoje środowisko IT, muszą zweryfikować, czy będzie ono zgodne z normami prawnymi, np. czy nie zostaje naruszone bezpieczeństwo podczas migracji wirtualnych maszyn lub w przypadku korzystania z rozwiązań różnych producentów. Obecnie rozstrzygnięcie tych kwestii wymaga dokładniej analizy: przejrzenia fachowych publikacji, materiałów marketingowych (referencji) czy internetowych forów, na których można nawiązać kontakt z ekspertami.

Interoperacyjność
Jeśli firma ma w planach wdrożenie produktów do wirtualizacji różnych producentów, należy koniecznie sprawdzić, jakie rodzaje serwerów i pamięci masowych obsługują poszczególne produkty. To pozwoli przygotować uniwersalną platformę sprzętową. Warto przy tym nie korzystać wyłącznie z oficjalnych z specyfikacji, ale upewnić się, które z wymienionych urządzeń są faktycznie obsługiwane (zostały przetestowane). Przy braku standaryzacji dobrym rozwiązaniem jest samodzielne wykonanie testów, ale jest to złożony, nie zawsze możliwy do przeprowadzenia proces.

Wdrożenie
Wirtualizacja stała się popularna dopiero parę lat temu i wciąż jest stosunkowo niewielu ekspertów IT, którzy mogą wspomóc firmy swoją wiedzą. Należy więc odpowiedzieć sobie na pytanie, czy firma jest w stanie samodzielnie przeprowadzić wdrożenie czy raczej jest zdana na producentów poszczególnych rozwiązań i ich chęć do współpracy ze sobą w celu utrzymania w działaniu heterogenicznego środowiska. Jeśli we wdrożenie zaangażowane są inne organizacje, np integratorzy, trzeba zweryfikować, czy dysponują odpowiednimi kwalifikacjami do obsługi różnorodnych systemów i aplikacji.

Kwestia ta jest szczególnie istotna w kontekście problemów występujących pomiędzy poszczególnymi produktami, a wystąpią one prawie na pewno. W takiej sytuacji producenci muszą być zdolni do efektywnej współpracy, a nie tylko przerzucania się odpowiedzialnością. Żeby promować taką współpracę, główni producenci utworzyli TSAnet, organizację, która ma działać w skali globalnej i rozwiązywać problemy klientów związane z wykorzystywanie produktów od różnych dostawców.

Poza tym administratorzy muszą sprawdzić, czy wybrane rozwiązania będą pasowały do pozostałych komponentów. Przykładowo, firmy z reguły korzystają z kilku różnych systemów pamięci masowych. Systemy do zarządzania pamięciami masowymi maskują tę różnorodność, aby poszczególne systemy tworzyły jeden duży system pamięci masowych, którym można zarządzać z jednej konsoli. Ustalenie, w jaki sposób faktycznie odbywa się zarządzanie pamięcią masową, np. czy wymaga zastosowania specyficznych przełączników, ma wpływ na decyzje dotyczące wirtualizacji. Bo nagromadzenie różnych rozwiązań unikatowych dla poszczególnych producentów może doprowadzić do złożoności środowiska, przy której korzyści z wirtualizacji będą niewielkie.

Ale również sami administratorzy mogą dużo zrobić dla zapewnienia kompatybilność – muszą pamiętać o instalowaniu łatek bezpieczeństwa i aktualizacji. Należy przygotować odpowiednie reguły, a pracownicy działu IT powinni być uczuleni na pilnowanie tego, ponieważ w wirtualnym środowisku łatwo stracić kontrolę.

PODZIEL SIĘ

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ