Od czasu udostępnienia ChatGPT głośno zrobiło się w mediach o sztucznej inteligencji oraz perspektywach jej rozwoju i zastosowań. Obok entuzjastycznych opinii pojawiają się i niepokojące przewidywania… Ponad 1/3 ekspertów ds. sztucznej inteligencji (AI – artificial intelligence) uważa, że sztuczna inteligencja spowoduje katastrofę na poziomie nuklearnym w ciągu tego stulecia, wynika z danych przedstawionych przez Atlas VPN, które pochodzą z raportu kalifornijskiego Uniwersytetu Stanforda „2023 Artificial Intelligence Index Report”, opublikowanego w kwietniu 2023 r.

W maju i czerwcu 2022 r. zespół amerykańskich badaczy przeprowadził ankietę wśród społeczności zajmującej się przetwarzaniem języka naturalnego (NLP – natural language processing). Zapytano ich m.in. o stan rozwoju ogólnej sztucznej inteligencji (AGI – artificial general intelligence), NLP oraz o kwestie etyczne związane z wykorzystywaniem AI. NLP to część AI zajmująca się zapewnieniem komputerom zdolności rozumienia słów pisanych i mówionych w sposób podobny do ludzkiego.

Ankietę wypełniło 480 osób, z których 68% napisało co najmniej dwa artykuły dla Association for Computational Linguistics (ACL) w latach 2019-2022. Ankieta dostarcza jeden z najpełniejszych przeglądów opinii ekspertów na temat perspektyw rozwoju AI.

Ponad jedna trzecia (36%) respondentów zgodziła się lub częściowo zgodziła się ze stwierdzeniem: „Jest możliwe, że decyzje podejmowane przez sztuczną inteligencję lub systemy uczenia maszynowego (ML – machine learning) mogą spowodować w tym stuleciu katastrofę porównywalną z totalną wojną nuklearną”. Pomimo tych obaw, tylko 41% badaczy NLP uważało, że sztuczna inteligencja powinna zostać uregulowana.

(źr. Stanford 2023 Artificial Intelligence Index Report)

Jedną z ważnych kwestii, co do której ankietowani byli zgodni było to, że „AI może wkrótce doprowadzić do rewolucyjnych zmian społecznych”, 73% ekspertów AI zgodziło się z tym stwierdzeniem.

Badanie Stanforda wykazało również, że 77% ekspertów ds. sztucznej inteligencji zgodziło się lub częściowo zgodziło się, że prywatne firmy zajmujące się sztuczną inteligencją ogólnie mają zbyt duży wpływ.

Do 2020 r. powstało na świecie blisko 400 mln aplikacji. Według różnych prognoz, do 2025 r.
miało ich powstać kolejne 400 mln. Jednak prognozy nie wzięły pod uwagę jednego ważnego
czynnika: rozwoju sztucznej inteligencji i stworzenia ChatGPT. – Stworzenie ChatGPT będzie miało ogromny wpływ na przyśpieszenie tworzenia aplikacji – powiedział na VMware Technology Forum Arkadiusz Sikora, Country Manager VMware Polska. Jego zdaniem ich liczba w ciągu dwóch lat może wzrosnąć nawet do 1 mld.

Jednocześnie liczba incydentów z nadużywaniem sztucznej inteligencji gwałtownie rośnie – to jeden z 10 kluczowych wniosków w raporcie Stanforda. Według bazy danych organizacji AIAAIC (AI, Algorithmic, and Automation Incidents and Controversies), która monitoruje incydenty związane z nadużyciami AI, liczba incydentów i kontrowersji AI wzrosła 26-krotnie od 2012 r. Przykładowy incydent w 2022 roku to deep fake wideo z ukraińskim prezydentem Wołodymyrem Zełenskim, na którym rzekomo ogłasza poddanie się rosyjskiemu agresorowi.

(źr. Stanford 2023 Artificial Intelligence Index Report/AIAAIC Repository,2022)

Moratorium dotyczące zaawansowanych systemów AI

Ryzyko może być nadzwyczajne. Źle ustawiony superinteligentny AGI może spowodować poważne szkody dla świata”, napisał w lutym br. w poście na firmowym blogu dyrektor generalny OpenAI, Sam Altman, przypomina AtlasVPN.

Altman jest jednym z ponad 25 tys. sygnatariuszy listu otwartego, który został opublikowany ponad miesiąc temu. Dokument zawiera prośbę o 6-miesięczne moratorium na szkolenie systemów sztucznej inteligencji potężniejszych niż najnowszy GPT-4 OpenAI.

Potężne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a ryzyko będzie możliwe do opanowania” – czytamy w liście.

(grafika tytułowa – okładka raportu Stanforda „2023 Artificial Intelligence Index Report)

Napisane przez Stefan Kaczmarek