Zdaniem wielu ekspertów IT obiektowe pamięci masowe to właściwa odpowiedź na gargantuiczny przyrost danych. Podczas gdy blokowe pamięci masowe są idealne w przypadku wrażliwych na opóźnienia aplikacji o znaczeniu krytycznym, a plikowe pamięci masowe od dziesięcioleci są jednym z filarów sieci, pamięci obiektowe oferują doskonałą skalowalność i metadane oraz płaską, a nie hierarchiczną strukturę danych.

Analitycy przewidują, że nowe generacje aplikacji będą wykorzystywać zarówno blokowe pamięci masowe, jak i obiektowe, aby zapewnić skalowalność i wydajność. Ponadto niektóre starsze aplikacje plikowe będą przenoszone do obiektowych pamięci masowych, aby wykorzystać ekonomię ich skali.

Według definicji IBM, „obiektowa pamięć masowa to metoda niehierarchicznego przechowywania danych, najczęściej w chmurze. W przeciwieństwie do innych metod przechowywania danych, obiektowa pamięć masowa nie wykorzystuje drzewa katalogów. Odrębne jednostki danych (obiekty) istnieją na tym samym poziomie w puli pamięci masowej. Każdy obiekt ma unikalny identyfikator wykorzystywany przez aplikację w celu uzyskania dostępu do obiektu. Poza tym każdemu obiektowi mogą towarzyszyć metadane, które odczytuje się razem z obiektem.”

Kluczowe cechy obiektowych pamięci masowych:

  • Dane są przechowywane jako odrębne obiekty.
  • Dane nie podlegają hierarchii katalogów i są przechowywane w ahierarchicznej przestrzeni adresowej.
  • Aplikacje rozpoznają odrębne obiekty danych na podstawie ich unikalnego adresu.
  • Metodę tę opracowano z myślą o dostępie z poziomu aplikacji za pomocą interfejsu API, a nie z poziomu interfejsu użytkownika.

Analitycy GigaOm wskazują na kilka czynników wpływających na rosnącą popularność obiektowych pamięci masowych:

  • Pamięci flash są przystępne cenowo: architektury pamięci masowych two-tier są nadal normą w przypadku infrastruktur pamięci masowych o dużej pojemności, ale ponieważ pamięć flash staje się dominującą warstwą, niektóre problemy z wydajnością obiektowych pamięci masowych znikają.
  • Chmura hybrydowa: Usługi takie jak Amazon S3 sprawiły, że obiektowa pamięć masowa stała się popularna wśród programistów i wielu aplikacji, choć usługi chmurowe mogą być drogie. Gdy coraz więcej organizacji poszukuje infrastruktur hybrydowych, aby uzyskać to, co najlepsze z obu światów, istnieje większe zaufanie do tworzenia lokalnie (on-premise) obiektowych pamięci masowych.
  • Cyfrowa transformacja: Przyspieszenie transformacji cyfrowej w ubiegłym roku z powodu pandemii COVID sprawdziło się bardzo dobrze w przypadku obiektowych pamięci masowych, które są bardziej dostępne ze zdalnych lokalizacji niż systemów plików.

Obiektowa pamięć masowa a systemy AI i ML

Skalowalność jest głównym powodem, dla którego większość systemów opartych na sztucznej inteligencji (AI – artificial intelligence) i uczeniu maszynowym (ML – machine learning) wykorzystuje obecnie obiektowe pamięci masowe. Portal Enterprise Storage Forum, dostarczający praktyczne informacje na temat pamięci masowych i ochrony danych, wymienia kilka kluczowych sposobów na to, jak obiektowe pamięci masowe mogą wspierać systemy AI i ML.

W przypadku „tradycyjnych” pamięci masowych plikowych i blokowych rozszerzanie dostępnej pamięci masowej na potrzeby określonej aplikacji lub systemu zazwyczaj oznacza skalowanie pionowe poprzez dodawanie kolejnych poziomów hierarchicznych do infrastruktury pamięci masowej. Natomiast obiektowa pamięć masowa umożliwia skalowanie systemów w poziomie i prawie bez ograniczeń.

Przykładowo Tesla, aby „nauczyć” sztuczną inteligencję sterowania swoim pojazdem autonomicznym, potrzebuje ogromnych ilości elastycznych i szybkich pamięci masowych do przechowywania i analiz gigantycznej ilości danych zbieranych z setek tysięcy przejechanych kilometrów. Ogromne projekty, takie jak ten, napędzają rozwój pamięci masowych opartych na sztucznej inteligencji, a wśród nich obiektowe pamięci masowe.

Drugą ważną kwestią w przypadku obiektowych pamięci masowych dla systemów AI i ML jest dodatkowy poziom nadzoru nad bezpieczeństwem, jaki zapewniają one tym systemom. Ponieważ obiektowa pamięć masowa jest ogólnie definiowana na poziomie oprogramowania, a nie polega na monolitycznej infrastrukturze sprzętowej, architektury pamięci masowej można dokładniej odwzorować na struktury zabezpieczeń. Upraszcza to bezpieczeństwo w dużych systemach AI i ogranicza ich ryzyko.

Jest to szczególnie ważne w przypadku publicznych systemów sztucznej inteligencji, ponieważ od dawna wiadomo, że sztuczna inteligencja może poprawić cyberbezpieczeństwo, ale stwarza również nowe zagrożenia, których nie można zignorować. Chociaż sztuczna inteligencja może być na przykład wykorzystywana do ochrony kopii zapasowych przed oprogramowaniem ransomware, jest również używana do opracowywania nowych rodzajów oprogramowania ransomware, które łatwiej omijają te same systemy. Obiektowe pamięci masowe, zapewniając lepszą widoczność danych wykorzystywanych w tych systemach, pomagają zwiększyć ich bezpieczeństwo.

Działanie większości systemów AI i ML opiera się na obszernych metadanych. Dzieje się tak, ponieważ systemy AI i ML zazwyczaj wykorzystują metadane do znajdowania danych, których potrzebują do działania, i wymagają, aby były one bardzo szczegółowe, aby autonomicznie identyfikować prawidłowe dane. Niestety, tradycyjne systemy pamięci masowej dla przedsiębiorstw zostały zaprojektowane na długo przed pojawieniem się systemów AI i ML i nie zostały zaprojektowane do przenoszenia dużych ilości metadanych.

W rzeczywistości większość plikowych i blokowych pamięci masowych obsługuje tylko najbardziej podstawowe metadane natywnie — a czasami tylko datę utworzenia danych, przez kogo zostały utworzone i gdzie. Natomiast obiektowa pamięć masowa oferuje w pełni konfigurowalny schemat metadanych, który można rozszerzać. Oznacza to, że dzięki wykorzystaniu obiektowej pamięci masowej systemy AI i ML łatwiej lokalizują, identyfikują i wykorzystują potrzebne im dane.

Kolejną ważną zaletą obiektowych pamięci masowych jest to, że systemy te można zbudować tak, aby były masowo równoległe — tam, gdzie te same dane znajdują się na wielu serwerach, ale ta złożoność jest ukryta. Może to znacznie poprawić wydajność przechowywania danych, ponieważ systemy AI są w stanie pobierać dane z najbliższej lokalizacji, zmniejszając opóźnienia.

Jest to szczególnie ważne w przypadku systemów AI i ML, które muszą działać w czasie rzeczywistym. Najlepszymi przykładami są tutaj systemy napędzające pojazdy autonomiczne oraz te, które stanowią podstawę oprogramowania do rozpoznawania mowy.

Ostatnią dodatkową zaletą systemów masowo równoległych jest to, że systemy te nie tylko poprawiają wydajność, ale także zwiększają odporność, automatycznie tworząc wiele kopii określonego zestawu danych. Obiektowa pamięć masowa ma kluczowe znaczenie w budowaniu tych systemów, ponieważ paradygmat obiektowej pamięci masowej umożliwia inżynierom tworzenie architektur pamięci masowej, które autonomicznie kopiują dane do wielu lokalizacji.

Obrazek posiada pusty atrybut alt; plik o nazwie logo-Integrakom-biale-tlo.jpg
PARTNER TEMATU

Nadmiarowość stwarza odporność, a odporność danych stanie się hasłem przewodnim bezpieczeństwa danych w ciągu najbliższych kilku lat. Widzieliśmy już dramatyczny wzrost liczby ataków ransomware dotykających firmy każdej wielkości i ostatecznie tylko poprzez budowanie odporności tego typu ataki można pokonać.

Obiektowa pamięć masowa jest jednym z najbardziej widocznych trendów w zakresie przechowywania danych AI i ML. Zapewniając pamięć masową, która jest skalowalna, bezpieczna i elastyczna, oferuje firmom wydajność i bezpieczeństwo niezbędne do obsługi największych systemów AI i ML. A ponieważ takie systemy stają się coraz bardziej krytyczne dla firm, również obiektowa pamięć masowa będzie miała takie znaczenie.

(Grafika tytułowa – źr. Nutanix)

Napisane przez Stefan Kaczmarek