Kaskada oszczędności w green data center

0

Rozmowa z przedstawicielami firmy Emerson Network Power – Markiem Rojkiem, ekspertem ds. systemów zasilania dużej mocy, kierownikiem Działu Sprzedaży UPS Power i Bartoszem Biernackim, ekspertem ds. klimatyzacji precyzyjnej, kierownikiem regionalnym Działu Sprzedaży HPAC

W czym specjalizuje się Emerson Network Power? Jakie produkty oferuje dla data center?


Marek Rojek:
– Emerson Network Power zajmuje się głównie dwiema częściowo powiązanymi ze sobą dziedzinami: klimatyzacją precyzyjną (czyli chłodzeniem i odprowadzaniem ciepła) oraz systemami zasilania, w skład których wchodzą UPS-y oraz elementy towarzyszące, czyli np. przełączniki bezprzerwowe napięcia, układy zabezpieczające (ochrony przeciwprzepięciowe), układy dystrybucji mocy w serwerowni, a także nowe alternatywne źródła napięcia oraz urządzenia służące do poprawy parametrów sieci, tzw. filtry aktywne. Wszystkie oferowane przez nas produkty służą do tego, żeby zbudować otoczenie dla serwerowni, czyli dostarczyć napięcie zasilające i schłodzić serwery.

Ponadto mamy w ofercie szafy na sprzęt IT oraz listwy zasilania (np. z czujnikami temperatury i wilgotności powietrza), a także gotowe rozwiązania firmy Knürr (jej właścicielem też jest Emerson) z systemami zasilania i chłodzenia dla szaf IT. W tych rozwiązaniach szafy IT nie wymagają zewnętrznego układu chłodzenia, bo mają swój własny, np. zamontowany w drzwiach.

Trzecią grupę produktów stanowi oprogramowanie monitorujące, które dostarcza informacje o aktualnym stanie urządzeń. W 2008 r. Emerson kupił firmę Aperture Technologies, dostawcę oprogramowania do zarządzania całą infrastrukturą data center, w którym można np. zdefiniować terminy i częstotliwość przeglądów, zbadać efekty zmiany rekonfiguracji (np. wyłączenia trybu niezawodności). To oprogramowanie, choć bardzo popularne na świecie, np. w USA, nie jest jeszcze rozpowszechnione w Polsce.


Bartosz Biernacki: – Oferujemy również system SiteScan do zarządzania data center, który podaje Power User Efficiency – współczynnik efektywności liczony w czasie rzeczywistym, określający stosunek mocy zużytej przez serwery do całej mocy dostarczonej do data center. Wykonując dowolną rekonfigurację po stronie hardware’owej lub software’owej (np. wstawiając lepsze UPS-y, zmieniając konfigurację dystrybucji mocy), od razu uzyskujemy wstępną informację, jaki wywarła skutek.

Jak ten współczynnik powinien się kształtować?

Marek Rojek: – W dobrym data center współczynnik efektywności powinien wynosić ok. 1,6 co oznacza, że moc dostarczona do data center jest o ok. 60% większa od mocy trafiającej do serwerów w przypadku zoptymalizowanej aplikacji. Gdy aplikacja nie jest zoptymalizowana lub nie przykłada się w niej wagi do kwestii oszczędności, różnica może być 3-krotna, co wynika m.in. z tego, że układy klimatyzacyjne są mało wydajne albo źle dobrane do danej aplikacji, lub z tego, że występują duże straty w systemach zasilania UPS i układach dystrybucji mocy, albo z tego, że nie są zoptymalizowane zasilacze w serwerach lub nie zastosowano serwerów w wykonaniu energooszczędnym.

Problem polega na tym, że każdy zasilacz do urządzenia typu serwer czy komputer jest przewidziany do pracy przy określonym poziomie mocy i ma określoną charakterystykę, która pokazuje jego sprawność w zależności od stopnia obciążenia. Jeśli np. serwer wyposażony w 5-6 dysków z zasilaczem 900 W obciążymy tylko na połowę lub 1/3 mocy, to przy tak niskim obciążeniu jego sprawność przemiany napięcia zmiennego na stałe jest drastycznie niska (na poziomie 50% zamiast 80-90%), a straty generowane podczas tej przemiany – bardzo wysokie. Straty te zamieniają się w ciepło, które z kolei trzeba odprowadzić za pomocą układów klimatyzacji. Czyli strata na poziomie elektrycznym objawia się zwiększonym użyciem układów klimatyzacyjnych. To podwójny cios – raz tracimy, bo wydzielane jest ciepło, drugi – bo musimy to ciepło odprowadzić przez układy klimatyzacyjne.

A co kryje się pod pojęciem alternatywne źródła zasilania?

Marek Rojek: – Do krytycznych elementów układów zasilania należą te, które gromadzą energię elektryczną, czyli np. powszechnie stosowane baterie. Bateria ma niewiele zalet i bardzo dużo wad. Zaleta? Gromadzi energię. Ale jako układ magazynujący w systemach UPS wykazuje prawie same wady. Jest ołowiowa, nieobojętna dla środowiska, kwasowa. Po zużyciu musi podlegać recyklingowi. Na wysypisku jest materiałem groźnym dla otoczenia. Ma określoną żywotność 5-10 lat, a po tym okresie nadaje się na złom.

Recykling takiego ołowiu, który zawiera domieszki (np. Cd i Ni), jest skomplikowany. Oczyszczenie go przestaje być konkurencyjne. Taniej wydobyć nowy ołów, niż wykorzystać odzyskany w recyklingu. W dodatku baterie wykonane z Pb poddanego recyklingowi mają żywotność krótszą niż wymagana. Poza tym bateria musi pracować w stałej temperaturze do 25ºC. Gdybyśmy użytkowali baterię do pracy w wyższej temperaturze, drastycznie spadłaby jej żywotność.

Jeśli chodzi o alternatywne źródła zasilania to mamy w ofercie rozwiązanie Liebert FS, w którym wykorzystano ideę koła zamachowego, ale zrealizowaną w zupełnie innej technologii: włókna węglowe, łożyska powietrzno-magnetyczne. Idea polega na gromadzeniu energii kinetycznej w wirującym elemencie. Do tej pory wykorzystywano ciężkie koła wykonane ze stali – gdzie wirujący element musiał mieć ogromną masę, by zapewnić odpowiedni moment obrotowy.

Dzięki postępowi w produkcji lekkich materiałów magnetycznych koło w rozwiązaniu Liebert FS waży ok. 20-30 kg, ale na skutek minimalnych oporów może długo wirować. Taka prądnica o minimalnych oporach wytwarza napięcie w określonym czasie (nie jest to perpetuum mobile, po pewnym czasie zwalnia), ale może oddać np. 140 kW mocy w ciągu 20 s. To spora moc, a 20 s wystarczy, żeby generator prądotwórczy mógł wystartować. Koła, żeby zwiększyć moc, można łączyć równolegle. To rozwiązanie dla dużych instalacji.

Jak wygląda procentowy podział mocy dostarczanej do data center?

Bartosz Biernacki: – Każdy przypadek jest inny, ale zasadniczo ok. 45-55% energii elektrycznej zużywają systemy zasilania i klimatyzacji, resztę sprzęt IT. Klimatyzacja może pochłonąć nawet 30-40% energii elektrycznej. Dane pochodzą z modelowego data center, które firma Emerson zbudowała w USA, aby stworzyć uniwersalną strategię obejmującą modyfikację i optymalizację data center w celu zwiększania efektywności przetwarzanych danych lub zmniejszania poboru energii (czyli zwiększania wydajności sprzętu komputerowego lub zmniejszania kosztów).

Strategia ta nazywa się Energy Logic. Zapewnia ona dokładną i kompleksową analizę data center pod kątem zużycia energii elektrycznej i efektywności zastosowanych rozwiązań zarówno po stronie software`u, jak i hardware`u oraz systemów dystrybucji zasilania i chłodu, jak również źródeł zasilania i chłodu. Za pomocą Energy Logic można przeanalizować stan istniejący, pokazać, gdzie się znajdujemy, jak również zaproponować zmiany i modernizację części lub całości data center, wykazując konkretne oszczędności.

Marek Rojek: – Jeżeli w data center stosujemy urządzenia różnych firm, o różnych funkcjach, optymalizacja jest bardzo trudna. Posłużę się przykładem UPS-a działającego w trybach: oszczędnym i podwyższonej niezawodności. Gdy przełączymy go w tryb oszczędny, będzie wydzielał mniej ciepła i układy klimatyzacji to odczują, bo będą pobierały mniej energii. Jeżeli UPS nie ma dwóch trybów, to jak stwierdzić poprawę efektywności w wyniku konkretnych działań?

Podobnie jeżeli układy klimatyzacji mają płynną regulację wydajności, to zareagują na zmianę np. konfiguracji i jej wynik możemy zaobserwować na liczniku poboru energii. Jeżeli jednak układ chłodzi cały czas bez względu na to, ile ciepła wydziela się w całej serwerowni, brak korzystnego efektu oszczędności. Generalnie przyjęliśmy zasadę: chłodzić jak najbliżej źródła ciepła oraz z mocą adekwatną do zysków ciepła.

Według analityków rynku klienci decydują się na rozwiązania zapewniające oszczędność energii jedynie ze względów finansowych…

Bartosz Biernacki: – Od stycznia 2009 r. zostały uwolnione stawki za energię dla firm, co skutkowało wzrostem jej cen. Energia będzie dalej drożeć. Dlatego, obecnie jakakolwiek optymalizacja czy wdrożenie nowoczesnych, bardziej energooszczędnych rozwiązań powoduje, że koszty inwestycji zwracają się w ciągu maksymalnie dwóch lat. W tej chwili rachunki za energię elektryczną są największym problemem administratorów serwerowni. Tymczasem, wybierając bardziej zaawansowane rozwiązania, można nawet o 50% zmniejszyć zużycie energii podczas eksploatacji. W modelowym data center zbudowanym w USA za pomocą strategii Energy Logic osiągnięto redukcję zużycia energii elektrycznej, a tym samym emisji CO2 o 52%!

Marek Rojek: – Główne kierunki są takie, żeby ograniczyć ilość stopni przemiany tej energii, żeby serwery były zasilane napięciem stałym, np. 50 V. Po drugie, należy rozważyć kwestię odprowadzania ciepła. Obojętne jaką strategię zastosujemy w data center, pewna ilość ciepła zawsze będzie się wydzielała. Byłoby najlepiej, gdyby to ciepło dało się do czegoś wykorzystać, np. do ogrzewania wody w basenie, w szpitalach, hotelach – tak, aby zapewnić całoroczny odbiór ciepła.

Bartosz Biernacki: – Mamy rozwiązania, które umożliwiają dystrybucję energii cieplnej powstającej w data center. Problem pojawia się jednak po rozpatrzeniu bilansu zysków i strat. Trzeba sporo zainwestować, żeby uzyskać wymierne efekty. Rozwiązania, o których mówię, są bardziej zaawansowane technologicznie, wymagają większej uwagi podczas eksploatacji i serwisu. Wymaga to silnego dostawcy zarówno pod względem przygotowania merytorycznego, jak i możliwości działu serwisu, który jest nieodłącznym elementem każdego profesjonalnie zarządzanego data center. Im jednak droższa będzie energia elektryczna, tym większa będzie tendencja do budowania tego typu układów gospodarki skojarzonej z wykorzystaniem energii.

Na czym polega oferowane przez Emerson Network Power rozwiązanie free cooling?

Bartosz Biernacki: – Free cooling to system wytwarzania schłodzonej wody bez udziału sprężarek chłodniczych, wykorzystujący tylko niską temperaturę powietrza zewnętrznego w chłodnych porach roku. Standardowo free cooling jest wykorzystywany przy temperaturze do 5ºC na zewnątrz. ENP jako dostawca produkujący urządzenia przeznaczone niemal wyłącznie dla data center ma w ofercie rozwiązania zapewniające podniesienie temperatury, przy której uruchamia się free cooling, a tym samym znaczne wydłużenie okresu jego funkcjonowania.

W data center z reguły nie ma pełnego obciążenia cieplnego (najczęściej rzędu 85% założonej wartości maksymalnej), nie trzeba więc maksymalnie wykorzystywać agregatu wody lodowej czy efektów free coolingu. Regulacje systemów klimatyzacyjnych można robić dwutorowo, tzn. przy obniżonej wydajności cieplnej data center wyłączyć klimatyzację albo podwyższyć temperaturę wody. Jeśli podwyższymy temperaturę wody, możemy zastosować free cooling przy wyższej temperaturze zewnętrznej, czyli automatycznie okres działania aparatury free coolingu się wydłuży, co daje kolejną korzyść. Jako dostawca kompleksowego systemu Emerson Network Power oferuje usługę analizy potrzeb całego obiektu (nie tylko wybranego fragmentu).

Nasze rozwiązania free cooling, jeśli chodzi o agregaty wody lodowej, mogą pracować w tzw. kaskadzie free coolingowej. Z reguły jest więc tak, że mamy układ n+1, czyli np. trzy agregaty wody lodowej i czwarty jako redundantny. W momencie, gdy na trzech kończą się możliwości free coolingu, w standardowych jednostkach zaczynają się włączać sprężarki. Nasze układy sterowania pozwalają natomiast dołączyć ten czwarty agregat redundantny, wykorzystać go też w trybie free coolingu (czyli w 100% wykorzystać free cooling) i dopiero potem włączać sprężarki, a więc produkować chłód z energii elektrycznej. Takie rozwiązanie również wydłuża czas pracy, a zatem zwiększa możliwości działania free coolingu, automatycznie redukując koszty.

Stosowanie free coolingu może dodatkowo poprawić efektywność data center. Na przykład jeśli zdecydujemy się na serwery blade (kasetowe) i klimatyzację wysokiej gęstości, która będzie zasilana z urządzeń free coolingowych, uzyskamy wymierne korzyści. Inwestycje w zakresie rozwiązań free coolingu zwracają się w krótkim czasie. Dodatkowo mamy systemy, które z poziomu software’u nadzorują cały obiekt wewnątrz i na zewnątrz oraz urządzenia produkujące energię chłodniczą i tak optymalizujące pracę data center, aby maksymalnie wykorzystać efekt free coolingu.

Jak zdefiniować free cooling? Rozwiązanie to istnieje od wielu lat, ale nie jest za „free”. Nazwałbym je raczej chłodzeniem naturalnym. Decyzja o zastosowaniu go zawsze musi być poparta rachunkiem ekonomicznym. W instalacjach free coolingowych trzeba przetłoczyć część powietrza, by schłodzić czynnik, oraz przetłoczyć wodę między agregatem wody lodowej a serwerownią, a to też kosztuje. Służą do tego z reguły duże pompy, pobierające sporo energii. Te agregaty muszą stale pracować, ale nawet w trybie free coolingu, kiedy nie pracują sprężarki, pobierają energię elektryczną. Nic nie dzieje się za darmo.

Jakie chłodziwo wykorzystywane jest w układach klimatyzacyjnych Emersona?

Bartosz Biernacki: – W 97% naszych aplikacji stosujemy ekologiczny freon. Konkretnie wykorzystujemy R-407c i R-134a, chłodziwa określane jako ekologiczne. Trzeba mieć zawsze na uwadze ryzyko, że nastąpi rozszczelnienie układu i czynnik chłodzący przedostanie sie do atmosfery. My dbamy jednak, by nasze instalacje pracowały bezawaryjnie, a jednym z elementów bezawaryjności jest szczelność instalacji. W praktyce, nasz dział realizacji nie wraca drugi raz na obiekt. Hołdujemy zasadzie, że dużo bardziej efektywne jest wykonanie instalacji raz a dobrze.

Podsumowując, czynniki chłodzące są ewidencjonowane, kontrolowana jest też ilość czynników doprowadzanych do instalacji. Podczas wykonywania serwisu instalacji klimatyzacyjnej, kiedy wymagane jest rozszczelnienie układu chłodniczego, np. wymiana sprężarki, czynnik jest pompowany z powrotem do butli.

Jak jeszcze można zoptymalizować pracę centrów danych?

Marek Rojek: – Kolejny aspekt ekologiczny współczesnych data center to podniesienie temperatury pracy w serwerowni na skutek odstępstwa od wyimaginowanego wymogu, że wszystkie urządzenia muszą pracować w temperaturze pokojowej (18-20ºC). Obecnie sprzęt IT może pracować w zakresie temperatury 24-26ºC, a serwery blade nawet do 30ºC. Jedyny mankament – praca obsługi serwerowni w takich warunkach nie jest łatwa.

Bartosz Biernacki: – Trzeba pamiętać, że im mniej musi schłodzić urządzenie klimatyzacyjne, tym jest bardziej efektywne. Urządzenie konsumuje mniej więcej stałą ilość energii, natomiast w zależności od tego, w jakiej temperaturze będzie pracować, dostarcza różną ilość energii chłodniczej. Im wyższa temperatura w serwerowni, tym więcej energii chłodniczej można wytworzyć, czyli większa jest efektywność urządzenia. To powoduje, że przesunięcie temperatury pracy z 20 na 25ºC daje kilkudziesięcioprocentowe oszczędności energii elektrycznej dzięki zwiększeniu mocy chłodniczej.

Z kolei wyższa temperatura w serwerowni powoduje, że można pracować przy wyższej temperaturze wody, a wtedy efektywność agregatu wody lodowej również rośnie (im wyższa temperatura na tzw. parowniku, tym agregat jest bardziej efektywny), urządzenie może więc pracować z obniżoną mocą lub w dłuższym okresie w trybie free coolingu.

Wzrost temperatury pracy urządzeń – to najtańsza forma optymalizacji data center.

Jakie są światowe trendy w dziedzinie data center?

Marek Rojek: – Trend jest od lat ten sam – poprawa sprawności urządzeń, zmniejszenie strat na systemach zasilania. Zawsze będzie problem wyważenia proporcji między niezawodnością systemu a wielkością strat. Jeżeli pojawią się nowe technologie wytwarzania tranzystorów, powinny zmaleć straty ciepła wydzielanego w momencie przemiany częstotliwości, wtedy sprawność urządzeń wzrośnie.

Drugi trend związany jest z mobilnością – przenośne data center będzie miało większą rację bytu. Oczywiście centra billingowe (telekomunikacyjne) czy backupowe powinny być stacjonarne, ale np. w przypadku transmisji przebiegu imprez masowych (np. w trakcie Euro 2012) wystarczą przenośne centra danych, które zapewnią podłączenie do mediów, transmisję telewizyjną czy do Internetu, a po zakończeniu imprezy zostaną zwinięte.

Pojawią się zupełnie nowe wyzwania dla centrów danych: telewizja HD, przekazy informacji, transmisja w Internecie – to wymusi zupełnie nowe koncepcje.

Bartosz Biernacki: – W klimatyzacji widzę tendencję do stosowania rozwiązań wysokiej gęstości. Wzrost mocy obliczeniowej sprzętu komputerowego wywoływał w podobnym tempie wzrost wydzielania ciepła. Choć tempo wydzielania ciepła w tej chwili trochę się spowolniło – mamy bardziej efektywne rozwiązania w sprzęcie IT – wzrost będzie następował nadal i myślę, że coraz więcej klientów zdecyduje się na rozwiązania wysokiej gęstości.

Zastosowanie serwerów blade i gęste upakowanie ich w szafach samo w sobie nie zapewnia większych oszczędności (ok. 1% w poborze energii), ale umożliwia zastosowanie rozwiązań wysokiej gęstości w obszarze klimatyzacji i aparatury zasilającej. System klimatyzacyjny wysokiej gęstości może być o 30% bardziej efektywny. Porównywałem tradycyjne systemy oparte na szafach klimatyzacji precyzyjnej w stosunku do systemów wysokiej gęstości, które mamy w ofercie, i otrzymałem różnice rzędu 20-30%, nie mówiąc już o tym, ile można zyskać miejsca w serwerowni.

Obecnie pracujemy nad rozwiązaniami „chłodzić bliżej źródła”, czyli bezpośrednim chłodzeniem procesorów. Te rozwiązania są konsultowane z głównymi dostawcami serwerów, takimi jak HP, IBM, Sun Microsystems. W tej chwili testowany jest system, który zaczniemy wdrażać prawdopodobnie w 2010 r. Zapewni on możliwość odprowadzenia do 50 kW energii cieplnej z jednej szafy rackowej (obecnie możemy odebrać ponad 35 kW) i będzie go można podłączyć do istniejących instalacji wysokiej gęstości naszej produkcji. Czyli jeśli ktoś miał 10 szaf rackowych 15 kW, a będzie chciał postawić dwie szafy o mocy 45 kW, to część szaf 15 kW będzie mógł usunąć, a do istniejącej instalacji podłączyć dwie wysokiej gęstości. To wszystko bez przerywania pracy urządzeń klimatyzacyjnych, czyli przy minimum kosztów i pracy – maksimum korzyści.

Najbardziej efektywne systemy chłodzenia to takie, które chłodzą najbliżej źródła ciepła. Transport powietrza w obrębie całego obiektu (np. dmuchanie powietrza pod podłogę i przetłaczanie go przez kilka, kilkanaście metrów po to, żeby na końcu chłodziło serwer) jest drogi. Każda przeszkoda na drodze powietrza powoduje konkretne straty, które musimy pokryć mocą silników wentylatorów pobierających energię elektryczną, za którą trzeba zapłacić.

Marek Rojek: – Widzę jeszcze kolejny trend. Pobór energii wprawdzie rósł, ale nieproporcjonalnie do niego rosła wydajność procesorów. Procesory są coraz bardziej energooszczędne. Myślę, że ta tendencja będzie zachowana i zejdziemy poniżej pewnych granic. Pobory mocy będą mniejsze, ale wydajność większa.

Bartosz Biernacki: – Energooszczędny sprzęt IT wydziela mniej ciepła, automatycznie mamy więc mniejszy system klimatyzacyjny. Im mniejszy, tym mniejsze są systemy zasilania. Jeśli dodatkowo będą one energooszczędne, to mamy kaskadę – efekt oszczędności wynikający z oszczędnego sprzętu IT, a drugi efekt, że mniejszy system klimatyzacyjny jest bardziej efektywny, czyli jeszcze bardziej zmniejszamy zużycie energii. Całościowo do problemu efektywności podchodzi właśnie strategia Energy Logic, ale jest to złożone zagadnienie wymagające odrębnego spotkania.

Rozmawiali
Elżbieta Jaworska i Rafał Janus

PODZIEL SIĘ

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ