Wirtualizacyjne napięcie

0

Czy istnieje ogólna teoria lub model ekonomiczny pozwalający zmierzyć efekty wirtualizacji?

Trudność w stworzeniu takiego modelu polega przede wszystkim na tym, że wirtualizacja jest zjawiskiem rozległym i złożonym. Wikipedia wymienia pod tym hasłem siedem głównych typów tj.:

– wirtualizację sprzętu w tym serwerów;
– desktopu;
– oprogramowania (w tym systemu operacyjnego, aplikacji i obszaru roboczego, usługi ang. service);
– dalej pamięci operacyjnej (łączenie w pule RAM systemów w sieci, izolacja obszarów pamięci dla oddzielnych aplikacji, współdzielenie pamięci i overcommitment);
– pamięci masowej (ang. storage w tym wirtualizacja storage per se, rozproszone systemy plików, storage hypervisor);
– wirtualizację danych i baz danych;
– i w końcu wirtualizację sieci.

Nie jest celem tego artykułu szczegółowe omówienie powyższej typologii, unaocznia nam ona jednak rozległość i zróźnicowanie omawianego zjawiska. Trzeba zauważyć, że powyższa typologia ogranicza się do rozumienia wirtualizacji jako zjawiska dotyczącego infrastruktury ICT. Łatwo można narazić się tu na krytykę, że w czasach, które zmuszają do poszukiwania oszczędności należałoby raczej bardziej skupić się na wirtualizacji rozumianej jako alternatywie dla fizycznej obecności pracowników – czyli wirtualnych zespołów roboczych, wideokonferencji, zdalnego wsparcia, zdalnego dostępu, wirtualnych seminariów i szkoleń, awatarów, itp. To właśnie tutaj tkwią potencjalnie największe oszczędności a zarazem największe potrzeby związane z elatycznością podaży pracy.

Jak pogodzić w jednym modelu opis zjawiska dotykającego dwóch tak różnych obszarów – infrastruktury ICT oraz obecności pracowników? Nie dotykamy przy tym tutaj wirtualnej rzeczywistości, ale wypadałoby wspomnieć o różnicach pomiędzy wirtualizacją, parawirtualizacją, partycjonowaniem, domeną, gościem (ang. guest), gospodarzem (ang. host), itd.

Na domiar złego wirtualizacja poddana jest intensywnemu działaniu marketingu wielu uczestników rynku. Te działania marketingowe wiążą się z koniecznością szybkiego i siłą rzeczy uproszczonego zakomunikowania innym uczestnikom rynku wprowadzanych przez dostawców w ich produktach i nowych wersjach innowacji przełomowych i zachowawczych. Wcale nierzadko marketing usiłuje zresztą przedstawić te ostatnie jako przełomowe, grzesząc pewnym brakiem umiaru w doborze słownictwa, metafor i zachwalaniu swego towaru.
Efektem ubocznym, często niestety zamierzonym przez dostawców jest wielokrotne redefiniowanie samego zjawiska wirtualizacji oraz poszczególnych obszarów jej zastosowań.

Czy więc pytanie postawione na wstępie tego artykułu może mieć pozytywną odpowiedź? Czy możliwy jest model ekonomicznych efektów wirtualizacji, który byłby głębszym spojrzeniem na to zjawisko z operacyjnego punktu widzenia?

W stronę definicji i modelu

Po pierwsze potrzebne jest jakieś sensowne zakreślenie obszaru rozważań. Przyjmijmy, że z operacyjnego punktu widzenia wirtualizacja jest sposobem na uzyskanie lepszego wykorzystania infrastruktury ICT, poprzez uwolnienie jej od fizycznych ograniczeń poszczególnych komponentów. Aby uzyskać ten efekt wirtualizacja wprowadza dodatkową warstwę (oprogramowanie) pomiędzy sprzęt i aplikacje.

Po drugie świadomie ograniczmy nasze rozważania do infrastruktury ICT wykorzystywanej przemysłowo w datacenter, mającej gospodarcze zastosowanie.
Zauważmy, że wirtualizacja stosowana była od lat ’60 ubiegłego wieku. Wtedy obejmowała Virtual Memory i partycjonowanie serwerów, w latach ‘70 wirtualny system operacyjny, w kolejnej dekadzie wirtualizowaliśmy sieci w a latach ‘90 pamięci masowe (dyskowe i taśmowe). W roku 1974 Gerald J. Popek (University of California, Los Angeles) oraz Robert P. Goldberg (Harvard University i Honeywell Information Systems) po raz pierwszy opisali ideę wirtualizacji serwerów – znaną już od lat ’60. Dlaczego więc dzisiaj ta idea znana od 50 lat cieszy się taką popularnością? Właśnie ze względu na jej masowe, gospodarcze zastosowanie i korzyści z niego płynące.

Po trzecie trzeba zauważyć, że masowe gospodarcze zastosowanie wirtualizacji jest faktem ostatnich lat. Kiedy w 1997 roku Mendel Rosenblum, profesor Uniwersytetu Stanforda zakładał firmę VMware, nie wiedział, że w 2004 roku sfinalizuje transakcję jej sprzedaży za 625 milionów dolarów w gotówce. Po 10 latach od założenia firma stawiająca na wirtualizację masowo produkowanych serwerów z procesorami x86 zdobyła 100.000 klientów i dysponując 5000 pracowników w 36 krajach zanotowała roczne przychody w wysokości 1,33 mld dolarów. Ten sam trend wzrostu wydajności serwerów x86 i utowarowienia informatyki postanowili wykorzystać także liczni inni dostawcy tacy jak Citrix, Microsoft, społeczność Linux a nawet Oracle. Wraz ze zmianą procesorów PowerPC na x86 w macierzach VMAX okazało się, że trend ten z powodzeniem może ogarnąć także najbardziej wymagające zastosowania. Z kolei presja platform x86 zmusiła twórców systemów UNIX, które od dawna już oferowały wirtualizację do intensywnego rozwoju tej funkcjonalności.

Jeśli więc możliwy jest model ekonomicznych efektów wirtualizacji to w ramach tego artkułu poszukujemy go w obrębie infrastruktury ICT wykorzystywanej przemysłowo w datacenter – w zakresie wirtualizacji serwerów, pamięci masowych i sieci.


Jakie są największe wyzwania? Jak je pokonać?

Według prognoz analityków do 2013 roku zwirtualizowanych będzie 69% obciążeń serwerowych. Prognozę tę potwierdza analiza tzw. macierzy kandydatów , opublikowanej w 2005 roku, wskazującej jakie typy serwerów są a jakie nie są kandydatami do wirtualizacji. Współcześnie większość wymienionych w owej macierzy typów serwerów jest już zwirtualizowana. Dawno już wykorzystaliśmy więc proste rezerwy oszczędzania wynikające z konsolidacji, współdzielenia zasobów, oszczędności energii, skrócenia cyklu dostarczania, tańszego DR oraz łatwiejszego zarządzania. Wyzwaniem na dzisiaj jest utrzymanie tempa optymalizacji rachunku kosztowego data center i znalezienie kolejnych obszarów do dalszego wykorzystania wirtualizacji. Jeśli przyjrzymy się wirtualizacji sine ira et studio zauważymy, że tworząc nowe możliwości przyniosła także nowe zagrożenia i wymagania. Z drugiej więc strony wyzwaniem jest lepsze zoperacjonalizowanie wirtualizacji w modelu biznesowym uwzględniające te nowe wymagania oraz wzrost biznesu i redukcja ryzyka.

Jeśli przyjrzyjmy się obu grupom wyzwań – zarówno tym związanym z utrzymaniem tempa optymalizacji ICT jak i tym związanym z nowymi wymaganiami, które przyniosła wirtualizacja – możemy wskazać pięć zakresów działań, które mogą pozwolić sprostać tym wyzwaniom:

1. Nowe obszary wirtualizacji – Bazując na sukcesach wirtualizacji serwerów, należy dążyć do wdrożeń wirtualizacji także w obszarze sieci i pamięci masowych . Konsolidacja, odmiejscowienie, elastyczność, lepsze wykorzystanie zasobów i inne korzyści, na których bazują dzisiaj metryki sprawności organizacji IT w obszarze serwerów mogą zostać również osiągnięte w sieciach i storage.

2. Wydajność i organizacja pracy – Proste korzyści wynikające z wirtualizacji należy zdyskontować poprzez lepszą organizację i zwiększenie wydajności pracy. Jeśli w dotychczasowym środowisku administrator zarządzał średnio 10 TB pamięci masowych, po zwirtualizowaniu będzie być może w stanie zarządzać 100 TB dzięki obiecywanej przez producentów redukcji pracochłonności. Wymaga to nie tylko poprawy organizacji pracy, ale także wykorzystania zintegrowanych z wirtualizowanymi zasobami narzędzi do zarządzania (ang. systems management).

3. Automatyzacja procesów w data center – Powinna ona doprowadzić do tego aby procesy były ustandaryzowane, powtarzalne i spójne. Pozwoli to na lepsze zarządzanie głównym kapitałem wielu przedsiębiorstw – wiedzą. Automatyzacja procesów w data center jest także konieczna by sprostać deklarowanym biznesowi poziomom usług w środowiskach, w których dzięki wirtualizacji cykle wdrażania zmian uległy radykalnemu skróceniu.

4. Makdonaldyzacja ICT – Wirtualizacja powinna przełożyć się na uproszczenie korzystania przez biznes z zasobów. Samoobsługa biznesu poprzez portale powinna umożliwić testowanie nowych hipotez rynkowych i lepsze dostosowanie do potrzeb rynku. Inicjatywy biznesu dzięki szybko powielanym i wdrażanym szablonom powinny być obsługiwane bez zbędnej zwłoki, bo wirtualizacja to umożliwia.

5. Integracja ICT z biznesem – Wirtualizacja powinna bezpośrednio wspierać wzrost biznesu, redukcję ryzyka operacyjnego i oszczędności. Ostatecznie więc recjonalizacje wprowadzane dzięki wirtualizacji w obszarze technologii, infrastruktury i mocy wytwórczych przedsiębiorstwa powinny być mierzone poprzez ich wpływ na biznes. Wymaga to udziału przedstawicieli IT w dyskusjach o biznesie i przedstawicieli biznesu w dyskusjach z IT.

Poszukiwanie ogólnej teorii lub modelu ekonomicznego efektów wirtualizacji, który byłby głębszym spojrzeniem na to zjawisko z operacyjnego punktu widzenia muszą więc trwać. Z pewnością model taki powinien uwzględniać wskazane wyżej 5 zakresów działań i sformułować szczegółowe metryki pozwalające zoperacjonalizować jego użycie. Stosowane dzisiaj w wielu wypadkach proste kalkulacje kosztowe bazujące na kosztach inwestycji (ang. CAPEX), kosztach operacyjnych (ang. OPEX) lub kosztach utrzymania (ang. TCO) pomijają wpływ wirtualizacji na wzrost przedsiębiorstwa lub redukcję ryzyka operacyjnego. Wydaje się że to właśnie stworzenie modelu ekonomicznego efektów gospodarczych wirtualizacji jest ostatecznym, najważniejszym i pilnym wyzwaniem w najbliższym czasie.

Autorzy: Tomasz Jaworski, Piotr Stefańczyk, HP Polska

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ