Hu Yoshida o trendach na rynku IT

0

Hu Yoshida, Chief Technical Officer w Hitachi Data Systems przygotował listę trendów na 2014 rok, które w istotny sposób wpłyną na działy IT w firmach i organizacjach publicznych.

Działy IT skupią się bardziej na wynikach biznesowych, niż na infrastrukturze

Menedżerowie IT przeniosą uwagę z budowania i utrzymywania tradycyjnej infrastruktury na realizację procesów biznesowych swojego przedsiębiorstwa. Z perspektywy działu IT może to oznaczać skupienie się na zmodernizowaniu systemów (takich jak VMware) i aplikacji (np. Exchange) – w celu zapewnienia większego bezpieczeństwa, wydajności i efektywności – albo wdrożenie nowych rozwiązań do zarządzania zasobami przedsiębiorstwa lub analizy biznesowej. Aby zachować kontrolę nad kosztami i zoptymalizować istniejące zasoby, trzeba będzie wykorzystać najnowsze technologie, takie jak przenoszenie danych pomiędzy warstwami pamięci masowych (dynamic tiering), bez hurtowej wymiany dotychczasowej infrastruktury. Wdrożenie nowych technologii infrastrukturalnych może wymagać usług świadczonych przez producentów, aby dział IT mógł skoncentrować się na procesie biznesowym. Zamiast tradycyjnego podejścia „zrób to sam” do budowania systemów, działy IT będą szukać prekonfigurowanych rozwiązań, aby szybciej zaprząc je do pracy.

Dla producentów oznacza to sprzedawanie rozwiązań, a nie technologii. Producenci muszą podjąć wyzwanie w sposób holistyczny, zamiast sprzedawać indywidualne narzędzia, takie jak stacje SSD. Rozwiązanie wymaga integracji monitorowania, raportowania i zarządzania w skali całej infrastruktury w celu zapewnienia przejrzystości aplikacji. Integracja obejmuje również interfejsy API, wtyczki i adaptery, które zwiększają wydajność aplikacji i infrastruktury. Producenci IT będą musieli zaoferować więcej usług, które uwolnią działy IT od zadań związanych z budowaniem, konserwowaniem i migrowaniem systemów, a ponadto przygotować bardziej elastyczną ofertę finansową w zakresie płacenia za użycie, licencjonowania oprogramowania oraz utrzymania.


Konwergentne rozwiązania dla wybranych aplikacji

Wdrażanie nowych, dużych aplikacji wymaga integracji infrastruktury, serwerów, pamięci masowej, sieci LAN i SAN. Dotychczas były to projekty typu „zrób to sam”, co wymagało współpracy między wieloma administratorami aplikacji i infrastruktury. Technologia stała się tak złożona i wyspecjalizowana, że działy IT zatrudniają specjalistów od pamięci masowej, serwerów, sieci, hiperwizorów, platformy Exchange i baz danych. Wszyscy ci administratorzy konfigurują swoją aplikację lub część infrastruktury i koordynują pracę za pomocą powiadomień o zmianach, przechodząc przez wiele cykli testów i weryfikacji, zanim wdrażanie aplikacji dobiegnie końca. IDC ocenia, że w 2012 r. proces ten pochłaniał 23,3 proc. czasu i zasobów działu IT.

Jeszcze przed dostarczeniem elementów infrastruktury odbywa się długotrwały proces przetargowy, podczas którego dział IT rozsyła zapytania ofertowe i decyduje, które produkty będą ze sobą najlepiej współpracować. Często sprowadza się to do domysłów, zwłaszcza w przypadku nowej aplikacji, takiej jak SAP HANA. Jeśli administratorzy IT nie mają czasu lub doświadczenia wymaganego do zaktualizowania albo wdrożenia nowych aplikacji, konieczne bywa skorzystanie z profesjonalnych usług. Zdarza się, że po wybraniu i dostarczeniu infrastruktury testy ujawniają, że aplikacja i infrastruktura są niedopasowane, co prowadzi do niedotrzymania terminów, marnotrawstwa budżetu, dodatkowych kosztów, a nawet kupowania oprogramowania, które nigdy nie zostanie wykorzystane. Jeśli nawet wszystko zadziała, dział IT musi korzystać z pomocy technicznej świadczonej przez wielu producentów (w przypadku infrastruktury heterogenicznej).

Konwergentne rozwiązania dla wybranych aplikacji pomagają uporać się z tymi problemami. Rozwiązania konwergentne są wstępnie przetestowane przez doświadczonych specjalistów i zatwierdzone do pracy z wybranymi aplikacjami. Oznacza to, że elementy infrastruktury są zintegrowane i przetestowane pod kątem konkretnej aplikacji. Wiadomo, ile stanowisk będzie obsługiwanych w danej konfiguracji Exchange. Wiadomo, jakiej wydajności można się spodziewać po określonej konfiguracji Oracle RAC. Kiedy rozwiązanie zostanie dostarczone do centrum danych, wystarczy podłączyć je do prądu i zintegrować z siecią.

Szersze zastosowanie chmury prywatnej

Używanie chmury publicznej do uruchamiania podstawowych aplikacji biznesowych nadal uważa się za ryzykowne ze względu na kwestie bezpieczeństwa, prywatności, jakości usług, awarii oraz wysokich kosztów przetwarzania aplikacji i uzyskiwania dostępu do danych w chmurze. Choć koszty infrastruktury początkowo są niskie, mogą szybko wzrosnąć ze względu na częste uzyskiwanie dostępu do danych poza siedzibą firmy.

Z wielu przyczyn podobnych do opisanych powyżej klienci wolą uruchamiać podstawowe aplikacje w chmurze prywatnej we własnej siedzibie, za swoimi zaporami i pod własną kontrolą. Nowe technologie, takie jak wirtualizacja, rozwiązania konwergentne, centrum danych definiowane przez oprogramowanie (Software Defined Data Center), oraz nowe modele biznesowe, na przykład usługi zarządzane, sprawiają, że wdrożenie modelu chmurowego staje się znacznie prostsze, efektywniejsze i tańsze.

Choć chmura prywatna nie oferuje elastyczności charakterystycznej dla dostawców dużych chmur publicznych, którzy mogą włączać i wyłączać zasoby zgodnie z bieżącym zapotrzebowaniem bez opóźnień, to jej użytkownicy wiedzą, że chmura jest chroniona zaporami sieciowymi i pozostaje pod ich bezpośrednią kontrolą. Dysponują narzędziami automatyzacyjnymi i mogą elastycznie przydzielać zasoby według potrzeb biznesowych. Bezpośrednie połączenie z chmurą prywatną może też ograniczyć koszty łączności z chmurą publiczną, a integracja aplikacji staje się znacznie łatwiejsza. Nadal można używać chmury publicznej do obsługi aplikacji typu „back office”. Można na przykład kopiować lub archiwizować część chmury prywatnej w chmurze publicznej. Różnica polega na tym, że teraz użytkownicy zyskują narzędzia, które pozwalają im dopasować chmurę do potrzeb biznesowych.


Eksplozja Big Data wymuszająca pojemności rzędu petabajtów

Eksplozja danych nieustrukturyzowanych przesyłanych przez sieć leży u podstaw tego trendu. Konieczne będzie zastosowanie sieciowych systemów plików, które skalują się do petabajtów, osiągają znacznie większą liczbę operacji wejścia-wyjścia na sekundę (IOPS) i zwiększają wydajność poprzez deduplikację i dynamiczny podział na warstwy.

Pamięć NAS zyskuje również na popularności za sprawą wirtualizacji serwerów, ponieważ uważa się ją za łatwiejszą we wdrażaniu i zarządzaniu od pamięci SAN. NAS upraszcza organizowanie, tworzenie kopii zapasowych oraz przywracanie maszyn wirtualnych i może operować na pojedynczych maszynach wirtualnych, a nie na jednostkach LUN, które zawierają ich wiele. Pamięć SAN dotychczas była wydajniejsza niż NAS, ale nowe ulepszenia, takie jak Ethernet 10 Gb/s i korporacyjna pamięć flash zmniejszyły tę lukę. Jednakże tradycyjne serwery plików i systemy plików dostają zadyszki, kiedy obsługują operacje wejścia-wyjścia serwerów wirtualnych, które mnożą się w miarę wzrostu liczby maszyn wirtualnych w wielordzeniowych serwerach.

Aby spełnić te rosnące wymagania, systemy NAS muszą skalować się do petabajtów przy rozmiarach plików sięgających setek terabajtów, a dodatkowo zapewniać tysiące IOPS przy czasie reakcji krótszym niż 1 milisekunda.


Rozwiązanie do synchronizacji i udostępniania zastępujące „samowolkę IT”

Zjawisko BYOD przynosi wiele korzyści: zwiększa satysfakcję i produktywność użytkowników, obniża koszty IT i zapewnia elastyczność biznesową. Jeśli jednak nie jest kontrolowane i zarządzane przez dział IT, naraża dane korporacyjne na różne zagrożenia.

Niedawno kupiłem nowego iPhone’a 5 i pobrałem aplikację Mobile@work firmy Mobileiron. Zarejestrowałem się w witrynie Mobility.hds.com, zainstalowałem Mobileiron i uzyskałem dostęp do firmowej sieci. Mogłem korzystać z pulpitu komputera na iPhonie i komunikować się bezpiecznie z każdą osobą na świecie, ale kiedy chciałem udostępnić jej plik, musiałem wysłać go jako załącznik do wiadomości, zwiększając obciążenie sieci, serwera pocztowego, serwera kopii zapasowych, mojej skrzynki odbiorczej, mojego lokalnego archiwum, archiwum firmowego itd., albo użyć jakiejś usługi chmurowej, takiej jak Dropbox, która znajduje się poza zaporami sieciowymi i jest traktowana niechętnie przez naszego dyrektora ds. informacji. Aby bezpiecznie synchronizować i udostępniać pliki, musiałem pobrać jeszcze jedną aplikację na mojego iPhone’a.

Udałem się do App Store, wyszukałem Hitachi Content Platform i pobrałem HCP Anywhere. Zarejestrowałem się w serwerze hcpanywhere.hds.com i byłem gotowy do synchronizacji oraz udostępniania plików z poziomu naszej firmowej chmury prywatnej.

Za pomocą HCP Anywhere mogę zapisywać pliki z pełną ochroną danych i udostępniać je przy użyciu łączy z kontrolą dostępu, które opcjonalnie mogą wygasać po pewnym okresie. Dział IT zyskuje kontrolę i uproszczoną administrację dzięki wbudowanemu zarządzaniu urządzeniami mobilnymi, audytowi i pełnej integracji z Microsoft Active Directory. Wszystkie pliki są przechowywane, deduplikowane, kompresowane i poddawane backupowi w prywatnej chmurze HDS, w lokalnym magazynie obiektów, jakim jest HCP.


Pamięć obiektowa rzuca światło na „ciemne dane”

W 2014 roku zwiększy się świadomość istnienia „ciemnych danych” oraz ich potencjału biznesowego. Gartner definiuje „ciemne dane” jako aktywa informacyjne, które organizacje gromadzą, przetwarzają i przechowują podczas zwykłej działalności biznesowej, a których zwykle nie potrafią użyć do innych celów (na przykład do analiz, rozwijania relacji biznesowych i generowania przychodów).

Jedną z głównych przyczyn, dla których organizacje nie wykorzystują tych danych, jest to, że są one odizolowane w „silosie” danej aplikacji lub producenta. Aby rzucić światło na ten typ „ciemnych danych”, musimy oddzielić przetwarzanie danych aplikacji we frontowej części systemu od ich przechowywania na zapleczu w celu wyeliminowania „silosów”. Z pomocą przychodzi tu pamięć obiektowa.

Dane oddzielone od aplikacji stają się po prostu zbiorem bitów, chyba że umieścimy je w kontenerze z metadanymi, które opisują dane oraz rządzące nimi zasady. Ten kontener staje się obiektem niezależnym od aplikacji, która go utworzyła, i może być używany przez inne aplikacje poprzez dostęp do metadanych. Dzięki oddzieleniu od aplikacji dane w dalszym ciągu są użyteczne, kiedy aplikacja staje się przestarzała. W 2014 r. magazyny obiektów nabiorą znaczenia, a główną tego przyczyną będzie chęć rzucenia światła na „ciemne dane” w celu czerpania korzyści biznesowych z istniejących informacji.

Ograniczenie backupu poprzez archiwizację, klonowanie i migawki

Jednym z trendów, które zidentyfikowałem w zeszłym roku, była eksplozja replikacji danych. Stwierdziłem, że za kopiowanie danych odpowiada przede wszystkim backup wraz z migawkami, kopiami zdalnymi i różnymi wersjami plików, które są wymagane do utrzymania ciągłości biznesowej. Przewidziałem też, że w 2013 r. ilość replikowanych danych osiągnie nowy poziom, chyba że działy IT skupią się na ograniczaniu rozmiaru kopii z wykorzystaniem takich narzędzi, jak aktywne archiwa. Od tego czasu wielu analityków zaczęło mówić o „niekontrolowanym rozroście kopii zapasowych”. Analitycy ci podają wiele użytecznych rad, jak ograniczyć ten problem. Jednym z najczęściej sugerowanych rozwiązań jest deduplikacja.

Choć deduplikacja pomaga zmniejszyć ilość danych wchodzących w skład kopii zapasowych, to nie ogranicza samych operacji backupu. Większość danych się nie zmienia, a mimo to nieustannie je kopiujemy, a jeśli korzystamy z deduplikacji, to poddajemy tej operacji ciągle te same dane. Możemy ograniczyć operacje backupu, jeśli zarchiwizujemy nieaktywną część danych w Hitachi Content Platform, gdzie zostaną one sprowadzone do pojedynczych egzemplarzy, skompresowane, zaszyfrowane i skopiowane raz w celu ochrony.

W 2014 r. można spodziewać się większego nacisku na archiwa, migawki i klony oraz na narzędzia do zarządzania cyklem życia danych, które pomogą uporać się z szybko rosnącą ilością danych przechowywanych jako kopie zapasowe.


Eksplozja korporacyjnej pamięci flash

W 2013 r. dyski SSD były jednym z najważniejszych trendów w dziedzinie pamięci masowej. Obecne prognozy mówią o 14-procentowej stopie wzrostu dysków SSD na rynku korporacyjnym. Jednak największy wzrost (53 proc.) jest nadal przewidywany dla rynku konsumenckiego, na którym skupia się większość producentów. Ponieważ większość przychodów pochodzi z rynku konsumenckiego, producenci nie mają motywacji, aby przeprojektować dyski SSD pod kątem użytku korporacyjnego.

Istnieje wiele startupów, które budują systemy pamięciowe ze stacji SSD dostępnych na masowym rynku i reklamują je jako pamięć masowa klasy korporacyjnej. Jednak bez względu na to, czego dokonają w kontrolerze systemu, kontrolery w samych dyskach SSD nadal mają wady typowe dla urządzeń powszechnego użytku. Ograniczenia takie jak „klif zapisu” bywają niewidoczne podczas testów odbiorczych, ale pojawiają się po zużyciu wszystkich zapasowych bloków.

Inni producenci korporacyjnej pamięci masowej zaczynają iść w nasze ślady, oferując moduły pamięci flash o większej pojemności i eliminując zjawisko „klifu zapisu”. Technologia flash osiągnęła szczyt rozdmuchanych oczekiwań w formie dysków SSD. Obecnie, w miarę jak użytkownicy korporacyjni nabywają doświadczenia w korzystaniu z pamięci flash, będziemy mieli do czynienia z większym naciskiem na moduły przeznaczone do użytku w przedsiębiorstwach, a w 2014 r. dojdzie do prawdziwej eksplozji korporacyjnej pamięci flash.


Szyfrowanie danych nieaktywnych stanie się obowiązkowe

W przeszłości szyfrowanie pamięci masowej było ograniczone do danych wybranych aplikacji. Wynikało to z wpływu, jaki miało szyfrowanie programowe na wydajność i koszty. Innym problemem był brak standardu zarządzania kluczami. Obecnie dysponujemy układami sprzętowymi, które eliminują obawy o wydajność i koszty szyfrowania, a także standardem Key Management Interoperability Protocol (KMIP) do zarządzania kluczami. Nie ma już powodu, aby unikać szyfrowania danych.

Szyfrowanie danych nieaktywnych (ang. „data at rest”) powinno być obowiązkową funkcją pamięci masowej. Dostępne są układy szyfrujące, standard zarządzania kluczami i moduły HSM do zewnętrznego zarządzania kluczami. Wszystko to gwarantuje, że dane pozostaną bezpieczne nawet po wycofaniu z użytku nośnika, na którym je zapisano. Koszty są minimalne i nie ma już wymówki, żeby nie chronić danych poprzez silne szyfrowanie. Ci, którzy używają usług zarządzanych albo przechowują dane w chmurze, powinni dowiedzieć się, czy są one szyfrowane i niszczone kryptograficznie podczas przenoszenia lub usuwania. Do celów audytu powinien być dostępny dziennik, który pokazuje zdarzenia związane z szyfrowaniem i zarządzaniem kluczami.

Transformacja umiejętności, ról i obowiązków personelu IT

Role i obowiązki personelu IT będą musiały się zmienić. Nie oznacza to, że część personelu okaże się niepotrzebna, ale że specjaliści IT będą musieli skupić się mniej na infrastrukturze, a bardziej na aplikacjach i korzyściach biznesowych.

Technologie związane z chmurą, urządzeniami mobilnymi, pamięcią obiektową i dużymi zbiorami danych zwiększą zapotrzebowanie na wiedzę obejmującą IT, aplikacje i biznes. Poszukiwani są architekci chmurowi — specjaliści IT, którzy potrafią wykorzystać chmurę. Wiedzą oni, jakie aplikacje pasują do modelu chmurowego, znają ekonomiczne kompromisy, umieją zabezpieczać i chronić dane w chmurze oraz negocjować umowy o poziom usług z dostawcą chmury i z użytkownikami wewnętrznymi. Wymaga to szerszego doświadczenia oraz umiejętności interdyscyplinarnych, co oznacza wyższe zarobki.

Specjalista IT powinien korzystać z każdej okazji, aby opanować nową wiedzę poprzez uczestniczenie w konferencjach, podczas których różni producenci organizują seminaria i pokazują praktyczne demonstracje najnowszych rozwiązań. Warto wyznaczać cele i planować rozwój umiejętności, które sprawią, że specjaliści stają się cenniejsi dla swojej firmy. IT się zmienia, a zmiany stwarzają nowe możliwości.

Hu Yoshida, Chief Technical Officer w Hitachi Data Systems

PODZIEL SIĘ

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ