Vertiv prognozuje, że procesy projektowania i eksploatacji centrów danych będą kształtowane przez infrastrukturę zasilającą środowiska sztucznej inteligencji. Także istotne będzie wykorzystanie cyfrowych bliźniaków oraz rozwiązań adaptacyjnego chłodzenia cieczą. Mają się do tego przyczynić ekstremalne zagęszczenie mocy i skalowanie do poziomu gigawatów.
Firma Vertiv opublikowała raport Vertiv Frontiers. Jego autorzy zauważają, że innowacje w centrach danych są coraz silniej determinowane przez czynniki makroekonomiczne. Wpływają na nie trendy związane ze sztuczną inteligencją. Dokument wskazuje kluczowe kierunki rozwoju technologii, które będą napędzać obecne i przyszłe innowacje. Są to między innymi: dostosowanie systemów zasilania do potrzeb AI, wykorzystanie cyfrowych bliźniaków oraz adaptacyjne chłodzenie cieczą.
Scott Armul, Chief Product and Technology Officer, Vertiv: Branża centrów danych bardzo szybko zmienia sposób, w jaki projektuje, buduje, eksploatuje i serwisuje infrastrukturę, odpowiadając na rosnące wymagania dotyczące gęstości mocy oraz tempa wdrażania tzw. fabryk sztucznej inteligencji. Obserwujemy nakładające się na siebie siły techniczne, w tym ekstremalne zagęszczenie mocy, które napędzają przełomowe trendy, takie jak popularyzacja architektury zasilania prądem stałym o wyższym napięciu oraz zaawansowanych systemów chłodzenia cieczą. Są one kluczowe dla osiągnięcia skalowania na poziomie gigawatów, niezbędnego dla zapewniania dalszych innowacji w obszarze AI. Wytwarzanie energii w siedzibie klienta oraz wykorzystywanie mechanizmów cyfrowych bliźniaków również odegrają istotną rolę w zwiększaniu skali i tempa popularyzacji sztucznej inteligencji.
Raport Vertiv Frontiers stanowi rozwinięcie publikowanych wcześniej przez Vertiv, corocznych prognoz Data Center Trends. Wskazuje on główne czynniki wpływające na innowacje w centrach danych. To ekstremalne zagęszczenie mocy, przyspieszane przez sztuczną inteligencję i obliczenia wysokiej wydajności. Ważnym czynnikiem jest także szybkie skalowanie do poziomu gigawatów. Jest to istotne, ponieważ budowa centrów danych osiąga obecnie bezprecedensowe tempo i skalę. Jednocześnie istotne jest postrzeganie centrów danych jako pojedynczych jednostek obliczeniowych. Era AI wymaga projektowania i eksploatacji obiektów jako zintegrowanych systemów. Dodatkowo, dywersyfikacja układów krzemowych wymusza dostosowanie infrastruktury do coraz szerszego wachlarza procesorów i architektur obliczeniowych.
Oto pięć kluczowych trendów wpływających na poszczególne obszary funkcjonowania centrów danych.
1. Zasilanie dostosowane do potrzeb sztucznej inteligencji
Większość funkcjonujących obecnie centrów danych nadal bazuje na hybrydowej dystrybucji zasilania prądem przemiennym i stałym (od sieci elektroenergetycznej do szaf IT). Obejmuje to trzy lub cztery etapy konwersji energii, co wiąże się z określonymi stratami. Przejście na architekturę prądu stałego o wyższym napięciu umożliwia istotne ograniczenie natężenia prądu oraz przekrojów przewodów. Daje również możliwość zmniejszenia liczby etapów konwersji i pozwala na centralizację przetwarzania energii na poziomie pomieszczenia. Hybrydowe systemy AC/DC wciąż są obecnie powszechne. Jednak wraz z dojrzewaniem standardów i urządzeń dla w pełni stałoprądowych instalacji wyższy poziom napięcia prądu stałego będzie zyskiwać na znaczeniu wraz ze wzrostem gęstości szaf. Dodatkowo, rozwój lokalnego wytwarzania energii oraz mikrosieci będzie sprzyjał popularyzacji architektury wysokiego napięcia prądu stałego.
2. Rozproszona sztuczna inteligencja
Dotychczasowe, liczone w miliardach dolarów inwestycje w centra danych, obsługujące duże modele językowe (LLM) sztucznej inteligencji, miały na celu umożliwienie powszechnego wykorzystania narzędzi AI przez konsumentów i przedsiębiorstwa. Vertiv zakłada, że sztuczna inteligencja staje się elementem krytycznym dla działalności firm. Jednak sposób i miejsce realizacji usług wnioskowania będą zależne od specyficznych potrzeb i uwarunkowań danego przedsiębiorstwa. Choć ten trend dotyczy wszystkich branż, te najbardziej regulowane (np. finanse, obronność czy ochrona zdrowia) mogą być zmuszone do utrzymywania prywatnych lub hybrydowych środowisk sztucznej inteligencji w lokalnych centrach danych. Jest to spowodowane wymogami dotyczącymi rezydencji danych, bezpieczeństwa lub opóźnień. Elastyczne i skalowalne systemy zasilania o wysokiej gęstości mocy oraz chłodzenia cieczą mogą umożliwić zwiększanie mocy obliczeniowej. Dotyczy to zarówno nowych inwestycji, jak i modernizacji istniejących obiektów.
3. Przyspieszenie autonomii energetycznej
Podstawę odporności większości niezależnych centrów danych od dziesięcioleci stanowią źródła wytwarzanej w siedzibie przedsiębiorstw energii, wystarczającej na krótki czas. Jednak obecne, powszechne wyzwania związane z dostępnością mocy z sieci elektroenergetycznej sprzyjają wdrażaniu rozwiązań rozszerzonej autonomii energetycznej. Jest to szczególnie istotne w przypadku centrów danych obsługujących środowiska sztucznej inteligencji. Odpowiedzią na ograniczenia w dostępie do mocy przyłączeniowej są inwestycje w lokalne wytwarzanie energii, niosące ze sobą szereg korzyści. Przykładem są inwestycje z wykorzystaniem turbin gazu ziemnego oraz innych technologii. Co ważne, strategie takie jak Bring Your Own Power (and Cooling), czyli zapewnianie energii oraz chłodzenia we własnym zakresie, najprawdopodobniej staną się trwałym elementem planów rozwoju autonomii energetycznej.
4. Projektowanie i eksploatacja bazujące na koncepcji cyfrowych bliźniaków
Rosnąca gęstość obciążeń związanych ze sztuczną inteligencją oraz coraz wydajniejsze procesory GPU zwiększają presję na szybkie uruchamianie złożonych fabryk AI. Dzięki narzędziom również wykorzystującym sztuczną inteligencję centra danych mogą być odwzorowywane i projektowane w środowisku wirtualnym. Pozwala na to koncepcja cyfrowych bliźniaków. Co ważne, umożliwia to integrację środowisk IT oraz krytycznej infrastruktury cyfrowej, często w postaci prefabrykowanych, modułowych rozwiązań. Następnie wdraża się je jako spójne jednostki obliczeniowe. Takie
podejście pozwala skrócić nawet o 50% czas „time-to-token” (okres od projektu do uruchomienia obliczeń). To będzie kluczowe dla efektywnego osiągania gigawatowej skali, niezbędnej dla dalszego rozwoju sztucznej inteligencji.
5. Adaptacyjne, wysoce odporne chłodzenie cieczą
Rozwój obciążeń AI oraz obsługującej je infrastruktury znacząco wpłynął na przyspieszenie popularyzacji rozwiązań chłodzenia cieczą. Jednocześnie sama sztuczna inteligencja może być wykorzystywana do dalszego doskonalenia i optymalizacji tych systemów. Dla rosnącej liczby operatorów chłodzenie cieczą stało się elementem krytycznym. Zastosowanie AI może dodatkowo zwiększyć jego efektywność oraz niezawodność. W połączeniu z zaawansowanymi systemami monitorowania i sterowania sztuczna inteligencja może umożliwić przewidywanie potencjalnych awarii. Może również zapewnić bardziej precyzyjne zarządzanie przepływem cieczy i komponentami systemu. Co więcej, trend ten powinien przełożyć się na wyższą dostępność i niezawodność kosztownych zasobów sprzętowych oraz obsługiwanych przez nie danych i obciążeń.


