
Zrównoważony rozwój, wdrażanie sztucznej inteligencji i chłodzenia cieczą, ewolucja oprogramowania do zarządzania centrami danych oraz pojawianie się kampusów data center – to wskazywane w styczniowym raporcie Uptime Intelligence wyzwania i trendy w branży centrów danych, których możemy spodziewać się w 2024 roku.
Duży popyt na IT i systemy teleinformatyczne o coraz większej gęstości, w połączeniu z koniecznością spełniania rygorystycznych wymogów w zakresie zrównoważonego rozwoju, będzie motorem nowej fali inwestycji w data center, czytamy w raporcie Uptime Institute. Złożoność systemów ICT i konieczność ich skalowania, a także wprowadzanie innowacji w zakresie chłodzenia, oprogramowania i zasilania to wyzwania stojące przed operatorami data center.
Najważniejsze prognozy na rok 2024 dotyczące centrów danych
Zrównoważony rozwój (ESG). Nowe przepisy i wymagania dotyczące zasad raportowania wymuszą w wielu krajach bardziej rygorystyczne raportowanie emisji gazów cieplarnianych w centrach danych. Stanie się to m.in. katalizatorem innowacyjnych inwestycji oraz podejmowania działań mających na celu poprawę ogólnej efektywności energetycznej. Stale rozbudowywany sektor data center będzie zużywał więcej energii i emitował więcej dwutlenku węgla. Coraz trudniejsze i kosztowniejsze stawać się będzie dotrzymywanie wyznaczanych celów zerowej emisyjności netto, piszą eksperci Uptime Institute.
Zapotrzebowanie na AI będzie miało ograniczony wpływ na większość operatorów data center. Entuzjazm związany ze sztuczną inteligencją sprawił, że branża centrów danych przygotowała się na znaczny wzrost popytu oraz zapotrzebowanie na większą moc i chłodzenie. Chociaż ogólny wpływ AI na centra danych może ostatecznie być ogromny, najbardziej wymagające usługi będą świadczone tylko przez nielicznych. Dla większości operatorów głównym wyzwaniem pozostanie zapewnienie wyższych poziomów gęstości i większej niezawodności swoich centrów przetwarzania danych.
Postępy w modelach GenAI spowodowały ogromne oczekiwania co do zapotrzebowania na przetwarzanie danych, a tym samym zwiększanie mocy obliczeniowych data center. Problem stanowić będzie ograniczona podaż chipów do szkolenia dużych modeli. Jednak wpływ AI będzie silnie odczuwalny w całej branży, a pośrednio m.in. poprzez rosnące obciążenia urządzeń i zwiększanie poziomu mocy chipów serwerowych.
Oprogramowanie data center staje się inteligentniejsze i wykorzystuje dane. Operatorzy data centers coraz częściej decydują się na wprowadzanie innowacji w zakresie oprogramowania, łączności i technologii czujników, które mogą pomóc w optymalizacji i automatyzacji działania infrastruktury krytycznej. Wykorzystywane są nowe narzędzia i technologie, takie jak uczenie maszynowe ML (machine learning). Jednak rynek wciąż ewoluuje i będzie istniało ryzyko wynikające ze złożoności, niewłaściwych wdrożeń i doboru narzędzi, ostrzegają analitycy Uptime Institute.
Chłodzenie cieczą nie rozwiąże problemów związanych z wydajnością. Operatorzy mają duże oczekiwania w stosunku do bezpośredniego chłodzenia cieczą w zakresie poprawy wydajności i zrównoważonego rozwoju. Jednak powolne wdrażanie nowych technologii ogranicza optymalizację i powoduje powstawanie mieszanych środowisk oraz konieczność równoległego działania istniejących systemów, co ogranicza ich wpływ na poprawę efektywności infrastruktury, uważają eksperci Uptime Institute.
Kolokacyjne kampusy data center. Budowa nowych, hiperskalowych, kolokacyjnych kampusów, połączonych szerokopasmowym światłowodem, zmniejszy presję na tradycyjne hotspoty w centrach danych, a w dłuższej perspektywie obniży ceny kolokacji. Jako rozwiązanie odpowiadające na rosnące zapotrzebowanie na moc obliczeniową i pamięć masową, kampus hiperskalowy będzie pojawiał się powoli, przy czym dostępność światłowodów i mocy będą czynnikami krytycznymi.
(grafika tytułowa stworzona przez AI – źr. Pixabay)
Pozostaw komentarz