Pomimo że rozwiązania HCI (hyperconverged infrastructure) są coraz szerzej wykorzystywane, to wokół infrastruktury hiperkonwergentnej pojawiają się mity, które powodują zamieszanie i nieporozumienia wśród użytkowników HCI. Alan Conboy, CTO w firmie Scale Computing obala pięć najbardziej rozpowszechnionych mitów na temat systemów HCI.
Mit 1 – systemy HCI są zbyt drogie
Cena nabycia rozwiązania HCI różni się w zależności od dostawcy i często marki hiperwizora użytego w rozwiązaniu, i chociaż często może się zdarzyć, że zakup poszczególnych komponentów potrzebnych do stworzenia infrastruktury wirtualizacyjnej może być tańszy niż zakup rozwiązania HCI, to stanowi tylko część kosztów. Rzeczywisty i całkowity koszt infrastruktury znacznie wykracza poza ten początkowy zakup.
Największą zaletą rozwiązań HCI jest to, że ułatwiają one wdrażanie wirtualizacji, a potem zarządzanie i rozwój, uważa CTO Scale Computing. Łatwość użytkowania przekłada się z czasem na radykalnie niższy całkowity koszt posiadania (TCO), możliwość szybkiego wdrożenia w ciągu godzin, a nie dni, po płynne skalowanie bez przestojów. HCI eliminuje wiele problemów związanych z tradycyjnymi rozwiązaniami do wirtualizacji typu „zrób to sam”.
HCI wykorzystuje automatyzację i inteligencję maszyn do obsługi wielu codziennych zadań związanych z zarządzaniem i utrzymaniem infrastruktury wirtualizacyjnej. Oszczędności mogą również obejmować wyeliminowanie licencjonowania oprogramowania hiperwizora, w zależności od hiperwizora wdrożonego lub obsługiwanego przez dostawcę HCI. Uzyskane oszczędności z zastosowania HCI mogą się różnić w zależności od organizacji. Alan Conboy przytacza szacunki mówiące, że w okresie 3-5 lat lub krótszym prawie zawsze dobre rozwiązania HCI okazują się mniej kosztowne.
Mit 2 – HCI ma mniej zasobów
Istnieje wiele czynników, które mogą wpływać na dostępne zasoby w rozwiązaniach HCI, a najważniejszym z nich jest architektura pamięci masowej oparta na VSA (Virtual storage appliances). VSA są używane do emulacji pamięci SAN lub NAS w celu obsługi tradycyjnych hiperwizorów innych firm, które zostały zaprojektowane do korzystania z pamięci SAN i NAS. Te VSA mogą wymagać dużych zasobów i są wymagane w każdym węźle klastra HCI.
VSA głównie zużywają pamięć RAM, a wiele z nich potrzebuje 24-32 GB lub więcej pamięci RAM na węzeł, a także wiele rdzeni na węzeł. Może to być znaczny procent pamięci RAM serwera/urządzenia, który jest dodatkiem do pamięci RAM zużywanej przez hiperwizor. Wiele rozwiązań HCI opartych na VSA wymaga również używania dysków SSD jako pamięci podręcznej ze względu na ich nieefektywne ścieżki danych, które przyczyniają się do zużycia pamięci RAM, wyjaśnia Alan Conboy.
Innym pożeraczem zasobów jest potrójna replikacja danych wymagana do obsługi bardzo dużych klastrów w celu przezwyciężenia prawdopodobieństwa uszkodzenia danych w wyniku awarii dysków. Potrójna replikacja oznacza, że każdy blok jest zapisywany w trzech oddzielnych węzłach HCI, na trzech kopiach danych plus narzut parzystości, co zajmuje dużo miejsca na dysku. Rozwiązania te próbują przezwyciężyć tę utratę użytecznej pamięci poprzez deduplikację, uwalniając więcej użytecznej pamięci, aby zmieścić więcej bloków.
Jednak, jak zaznacza ekspert Scale Computing, nie wszystkie rozwiązania HCI korzystają z funkcji VSA lub potrójnej replikacji. Niektórzy używają zintegrowanych hiperwizorów, które pozwalają na bardziej bezpośrednie ścieżki storage’owe bez VSA. Zasoby dostępne w tych rozwiązaniach HCI ze zintegrowanymi hiperwizorami są znacznie większe lub tak duże, jak można by się spodziewać po wysoce dostępnej infrastrukturze wirtualizacyjnej.
HCI zaczyna być traktowane także jako uzupełnienie chmury. Firmy, które początkowo zdecydowały się na chmurę, często teraz odkrywają, że potrzebują też lokalnej infrastruktury, której posiadanie, uzupełnione przez chmurę, daje znacznie większą kontrolę nad własnymi zasobami. Tutaj niezłym rozwiązaniem może okazać się system HCI.
Mit 3 – Rozwiązania HCI to pamięć masowa zdefiniowana programowo z hiperwizorem
Prawdą jest, że dostawcy rozwiązań SDS (Software Defined Storage) wyskakują z wątpliwymi rozwiązaniami HCI, które spełniają kryteria mitu nr 3, przyznaje Alan Conboy. Zastrzega jednocześnie, że pełnowartościowe rozwiązania HCI mogą zawierać SDS, lecz oferują znacznie więcej.
Cechą charakterystyczną rozwiązań HCI jest to, że upraszczają wirtualizację. Rozwiązania SDS pomogą w pewnym stopniu uprościć przechowywanie danych, ale często nie są niczym więcej niż emulowanym rozwiązaniem SAN/NAS. Jak wspomniano w poprzednim micie, wiele rozwiązań SDS używa VSA do emulacji SAN dla obsługiwanych przez nie hiperwizorów. To ostatecznie sprawia, że rozwiązania SDS są bardzo podobne do sieci SAN pod względem ogólnej złożoności rozwiązania.
Rozwiązania HCI automatyzują wiele zadań związanych z konfiguracją i zarządzaniem, które sprawiają, że tradycyjna wirtualizacja budowana na zasadzie „zrób to sam” jest tak złożona i trudna w zarządzaniu. Dlatego wiele rozwiązań HCI jest dostarczanych jako specjalnie zaprojektowane appliances, w których znajomość sprzętu wspiera jeszcze większą automatyzację. Automatyzacja, w tym automatic storage pooling, aktualizacje kroczące (ang. rolling updates) i funkcje samonaprawiania – wykraczają daleko poza prostsze rozwiązania SDS.
Najlepsze rozwiązania HCI również bezpośrednio integrują hiperwizory, zamiast korzystać z hiperwizorów innych firm. Ten poziom integracji pozwala na wydajniejsze śledzenie ścieżek danych i wykorzystywanie zasobów. Rozwiązania SDS wspierały hiperwizory innych firm na długo przed wynalezieniem koncepcji HCI.
Mit 4 – HCI nie obejmuje enterprise i edge computing
Wielu dostawców HCI od razu skupiło się najpierw na zastosowaniach enterprise computing. Jednak wzrost popularności przetwarzania na brzegu sieci (edge computing) skierował również uwagę na HCI jako na narzędzie infrastruktury brzegowej (edge infrastructure), pisze ekspert Scale Computing. Niektórzy, ale nie wszyscy, dostawcy systemów HCI mają odpowiednią architekturę, aby odpowiedzieć na wyzwania związane z przetwarzaniem danych na brzegu sieci.
Jak wspomniano wcześniej, rozwiązania HCI oparte na VSA mogą zużywać duże ilości zasobów, co prawie uniemożliwia korzystanie z mniejszych urządzeń potrzebnych do przetwarzania danych na brzegu sieci. W przypadku edge computing koszt jest kluczowy, a wymagania urządzeń dotyczące dużej ilości zasobów do obsługi pamięci masowej i hiperwizora zwiększają koszt rozwiązania w każdej lokalizacji brzegowej.
Alan Conboy podaje przykład: „Wyobraź sobie, że chcesz zainstalować HCI na urządzeniach o niewielkich zasobach, nawet do 64 GB pamięci RAM, i korzystać z rozwiązania opartego na VSA, które będzie zużywać o połowę mniej pamięci RAM na węzeł. To po prostu nie jest opłacalne. Rozwiązania HCI z pamięcią masową wbudowaną w hiperwizor w porównaniu do VSA zużywają mniej zasobów i mogą być efektywnie instalowane i uruchamiane na mniejszych urządzeniach, dzięki czemu przetwarzanie brzegowe staje się opłacalne”.
Mit 5 – Rozwiązanie HCI od jednego dostawcy nie jest właściwym posunięciem
Zgodnie ze starą zasadą „żeby nie wkładać wszystkich jajek do jednego koszyka”, niektórym nie podoba się pomysł, aby cały stos infrastruktury pochodził od jednego dostawcy. Mogą oni chcieć dywersyfikować swoje portfolio infrastruktury, kupując rozwiązania od wielu producentów.
Jednym z powodów, dla których powstało HCI, było przezwyciężenie szeregu wyzwań stojących przed tradycyjną infrastrukturą wirtualizacyjną, co w dużej mierze jest spowodowane łączeniem rozwiązań wielu dostawców w jeden stos. Najbardziej brzemienna w skutkach może okazać się sytuacja, kiedy klient w razie awarii wzywa pomoc, a dostawcy wskazują na siebie wzajemnie palcami poszukując winnego. Mogą oni wówczas dniami debatować, kto jest właścicielem problemu, podczas gdy klient pozostaje bez rozwiązania.
Kolejną dużą zaletą posiadania całego systemu od jednego dostawcy jest zwiększony poziom integracji i automatyzacji, który można osiągnąć, przekonuje CTO Scale Computing. Widać to szczególnie wyraźnie w rozwiązaniach HCI wykorzystujących hiperwizory różnych firm, gdzie w przypadku konieczności wykonania aktualizacji systemu, muszą one dla hiperwizora być wykonywane oddzielnie od reszty systemu. Osobna obsługa aktualizacji systemu nigdy nie jest idealna, ponieważ aktualizacje jednego dostawcy mogą powodować problemy z rozwiązaniami innego. Dlatego aktualizacje systemu opartego na rozwiązaniach z komponentami od wielu dostawców w przeszłości należały do żmudnych zadań, które zwykle musiały być realizowane przez długie noce i weekendy.
Niezależnie od tego, co można usłyszeć o HCI, właściwie zintegrowane rozwiązanie HCI umożliwi administratorom IT skupienie się na obciążeniach, zamiast ugrzęznąć w kwestiach zarządzania infrastrukturą, podsumowuje Alan Conboy.
(Grafika tytułowa – źr. VMware)
Pozostaw komentarz