Jakie są obecnie największe cyberzagrożenia dla przedsiębiorstw i najgorsze popełniane przez nie błędy? Które problemy związane z cyberbezpieczeństwem mogą pomóc rozwiązać sztuczna inteligencja i uczenie maszynowe? W jaki sposób AI zmieni krajobraz bezpieczeństwa w nadchodzących latach? Na te i kilka innych pytań w wideo przygotowanym przez NetEvents odpowiadają czterej eksperci. Z drugiej strony analitycy z laboratorium FortiGuard Labs ostrzegają CSOs (Chief Security Officers) przed coraz bardziej zaawansowanymi cyberatakami opartymi na automatyzacji i sztucznej inteligencji, których możemy spodziewać się w 2019 r.

  • Roark Pollock z firmy Ziften, mówi o konieczności prześwietlania cyberataków, aby chronić brzeg (edge) sieci.
  • Jan Guldentops, szef BA Testlabs – o AI jako narzędziu, które musi znajdować się w odpowiednich rękach.
  • Rik Turner, anlityk Ovum – o rozprzestrzenianiu się 3-literowych skrótów różnych „rozwiązań”.
  • Simon Secumplin, Secrutiny – o przesuwaniu uwagi od problemów IT na rzeczywiste ryzyko biznesowe.

Sztuczna inteligencja na ratunek

Część przedsiębiorstw decyduje się na wdrażanie rozwiązań z zakresu uczenia maszynowego i automatyzacji.

Nowe strategie obrony wpłyną na działalność cyberprzestępców, którzy zmienią dotychczasowe metody ataków i przyspieszą opracowywanie kolejnych – mówi Jolanta Malak, regionalna dyrektor Fortinet w Polsce. – Spodziewamy się, że środowiska cyberprzestępcze zaczną stosować innowacyjne sposoby, do których będzie musiała się dostosować cała branża cyberbezpieczeństwa. Planując strategie obronne, warto zastosować funkcje automatyzacji i sztucznej inteligencji, które skrócą czas upływający między włamaniem do sieci a zastosowaniem odpowiednich środków. To lepsze rozwiązanie niż angażowanie się w nieustający „wyścig zbrojeń”.

 Nowe działania, które cyberprzestępcy będą podejmować w 2019 r. według ekspertów Fortinet:
  • Fuzzing sztucznej inteligencji (Artificial Intelligence Fuzzing, AIF) i wykorzystywanie luk w zabezpieczeniach

Fuzzing to zaawansowana technika, która jest stosowana w środowiskach laboratoryjnych. Korzystają z niej specjaliści ds. badania zagrożeń w celu wykrywania luk w zabezpieczeniach sprzętu i oprogramowania. Tymczasem hakerzy zaczynają wykorzystywać uczenie maszynowe do tworzenia programów automatycznego fuzzingu. Pozwoli im to szybciej wykrywać nowe luki w zabezpieczeniach oraz zwiększyć liczbę ataków typu zero-day wymierzonych w różne programy i platformy. Tworzenie eksploitów zero-day zawsze było dość kosztowne, głównie ze względu na nakłady pracy i umiejętności potrzebne do wykrywania luk. Wykorzystanie sztucznej inteligencji może sprawić, że eksploity tego typu staną się powszechne. Gdy cyberprzestępcy zaczną stosować technologię wykrywania luk w formie usługi, przedsiębiorstwa będą musiały zmienić swoje podejście do bezpieczeństwa. Nie będą w stanie przewidzieć, gdzie pojawią się ataki zero-day, ani skutecznie się przed nimi bronić. W dodatku udostępnianie eksploitów dnia zerowego w formie usług może radykalnie wpłynąć na rodzaje i koszty innych produktów oferowanych w ukrytej sieci (tzw. dark web).

  • Rój jako usługa (ang. Swarm-as-a-Service)

Cyberprzestępcy coraz częściej wykorzystują sztuczną inteligencję opartą na rojach, czyli zbiorach kontrolowanych urządzeń używanych do przeprowadzenia cyberataku. W związku z tym trzeba się przygotować na ataki opartych na nich botnetów, czyli tzw. hivenetów. Roje można także dzielić na mniejsze części, które mają wykonać odpowiednie zadania. Aby chronić się przed nimi, przedsiębiorstwa będą potrzebować nowych, bardziej zaawansowanych zabezpieczeń. Z kolei zakup roju przez przestępcę jest bardzo prosty – wystarczy wybrać produkt z listy.

  • „Zatrucie” procesu uczenia maszynowego

Uczenie maszynowe (ML – Machine Learning) to jedna z najbardziej obiecujących technologii, którą można wykorzystać w celach ochronnych. Systemy i urządzenia zabezpieczające można wytrenować, aby samodzielnie porównywały zachowania z wartościami bazowymi. Mogą również przeprowadzać analizy w celu wykrywania zaawansowanych zagrożeń lub śledzić urządzenia i instalować na nich poprawki. Niestety, proces ML są w stanie wykorzystać również cyberprzestępcy. Atakując go, mogą wytrenować urządzenia lub systemy tak, aby nie wdrażały poprawek lub aktualizacji na określonych urządzeniach, ignorowały niektóre aplikacje lub zachowania, bądź nie rejestrowały określonych typów ruchu w sieci.

Napisane przez Stefan Kaczmarek