MaszyneriaSerce chmury: jak centra danych ewoluują, by nadążyć za sztuczną inteligencją > Robert Kamiński Opublikowane 17 października 20240 0 157 Podziel się Facebook Podziel się Twitter Podziel się Google+ Podziel się Reddit Podziel się Pinterest Podziel się Linkedin Podziel się Tumblr Sztuczna inteligencja zmienia świat na naszych oczach. Od chatbotów piszących eseje po algorytmy diagnozujące choroby – AI jest wszędzie. Ale za kulisami tej cyfrowej rewolucji kryje się wyzwanie, o którym mało kto wie: masywne, energochłonne centra danych, które to wszystko napędzają, osiągają swoje limity. I to właśnie tam szykuje się prawdziwa rewolucja.Miałem niedawno okazję uczestniczyć w fascynującym spotkaniu branżowym zorganizowanym przez firmę Vertiv, jednego z kluczowych graczy na rynku infrastruktury centrów danych. Vertiv, znany z innowacyjnych rozwiązań w zakresie zasilania, chłodzenia i zarządzania infrastrukturą IT, rzucił światło na narastający problem i przedstawił innowacyjne rozwiązania, jakie są opracowywane. W skrócie? Jesteśmy u progu największych zmian w projektowaniu centrów danych od dekad.Jako firma z wieloletnim doświadczeniem w branży, Vertiv znajduje się na czele tej technologicznej rewolucji. Ich eksperci podzielili się spostrzeżeniami na temat tego, jak centra danych muszą się zmieniać, by sprostać wymaganiom ery AI. Od zaawansowanych systemów chłodzenia cieczą po inteligentne rozwiązania zarządzania energią – Vertiv pracuje nad technologiami, które umożliwią kolejny skok w rozwoju infrastruktury IT.Od kilowatów do megawatów: eksplozja mocy obliczeniowejWyobraźcie sobie typową szafę serwerową w centrum danych sprzed kilku lat. Mieściła ona serwery o mocy 5-10 kilowatów, chłodzone zwykłym powietrzem. Dziś? Pojedynczy serwer AI może potrzebować tyle samo mocy. A producenci już mówią o szafach mieszczących sprzęt o mocy 100, 200, a nawet 500 kilowatów. To jak próba zmieszczenia małej elektrowni w szafie na ubrania!Skąd ta eksplozja mocy? Wszystko przez chipy AI, takie jak te od NVIDIA. Jeszcze niedawno pojedynczy chip potrzebował około 300 watów. Dziś? Nawet 1200 watów. A w jednym serwerze może być ich osiem. Do tego dochodzą specjalistyczne układy pamięci, sieci — wszystko to generuje ogromne ilości ciepła.Rewolucja w chłodzeniu: od powietrza do cieczyTradycyjne metody chłodzenia powietrzem po prostu nie dają już rady. Nawet gdybyśmy mogli dostarczyć tyle prądu, nie ma sposobu, by odprowadzić całe generowane ciepło bez dosłownego stopienia sprzętu. I tu wkracza rewolucyjna technologia: chłodzenie cieczą.Zamiast wentylatorów dmuchających powietrze, mówimy o specjalnie zaprojektowanych płynach chłodzących przepływających bezpośrednio nad chipami. Albo nawet całych serwerach zanurzonych w dielektrycznych cieczach. To nie science fiction — to już się dzieje.Przeprojektowanie całego ekosystemuAle to nie koniec zmian. Cały ekosystem centrum danych jest przeprojektowywany. Weźmy zasilanie. Tradycyjne listwy zasilające w szafach serwerowych obsługiwały prądy rzędu 16 czy 32 amperów. Dziś? Mówimy o 63, 80, a nawet 125 amperach. A to rodzi nowe wyzwania — jak bezpiecznie rozprowadzić tyle energii w ograniczonej przestrzeni?Do tego dochodzą systemy podtrzymywania zasilania. Klasyczne baterie UPS, które miały zapewnić kilka minut pracy w razie awarii, muszą teraz radzić sobie z gwałtownymi skokami poboru mocy, charakterystycznymi dla obciążeń AI. To wymaga całkowicie nowego podejścia do projektowania tych systemów.Diabeł tkwi w szczegółachFascynujące są też szczegóły techniczne. Na przykład, w tradycyjnych systemach chłodzenia cieczą wystarczały filtry o dokładności 500 mikronów. W nowych, z mikrokanałami o szerokości zaledwie 27 mikronów, potrzebne są filtry 25-mikronowe – to dokładność porównywalna z medyczną!Wyzwania i perspektywyTa rewolucja niesie ze sobą także wyzwania. Nowe systemy są droższe i bardziej skomplikowane w utrzymaniu. Pojedynczy chip AI może kosztować 50 000 dolarów, a szafa pełna takich chipów — miliony. To rodzi pytania o dostępność tej technologii i potencjalne nierówności w dostępie do mocy obliczeniowej AI.Jednak przyszłość rysuje się ekscytująco. Inżynierowie już myślą o szafach serwerowych o mocy 1 megawata — to moc porównywalna z małą elektrownią! A to z kolei napędza innowacje w dziedzinie efektywności energetycznej i odzyskiwania ciepła. Kto wie, może pewnego dnia ciepło z centrum danych AI ogrzeje twój dom lub basen?Podsumowanie: niewidzialna rewolucja o globalnym znaczeniuDla przeciętnego człowieka te zmiany będą niewidoczne. Ale są kluczowe dla umożliwienia kolejnej fali innowacji AI, które dotkną nas wszystkich. To przypomnienie, że nawet gdy software „zjada świat”, stoi za nim bardzo fizyczna infrastruktura — i ewoluuje ona w fascynujący sposób, by nadążyć za naszym nienasyconym apetytem na moc obliczeniową.Jedno jest pewne — centra danych przyszłości będą wyglądać zupełnie inaczej niż te, które znamy dziś. I choć większość z nas nigdy ich nie zobaczy, to właśnie tam, w tych cichych, chłodnych halach, kuje się przyszłość technologii AI, która zmieni nasze życie w sposoby, jakich jeszcze sobie nie wyobrażamy.Related Posts Przeczytaj również!Serwerownia a centrum danychQlik AI Reality Tour: przyszłość biznesu w ŁodziJeszcze lepsze serwery?GenAI w operacjach biznesowych. Jak przygotować firmę, aby transformacja przyniosła realne korzyści?Dlaczego sztuczna inteligencja zawodzi?