Sprawa jest dość tajemnicza. Opisał ją magazyn "Newsweek", podając zarazem, że nie był to pełnoprawny test, a symulacja. Doszło do niej podczas konferencji Future Combat Air & Space Capabilities Summit, która odbyła się pod koniec maja.
"Newsweek" opisuje, że symulacja została przeprowadzona w celu dowiedzenia, iż AI wciąż nie jest doskonała. Symulacja polegała na niszczeniu przez drona pocisków ziemia-powietrze. Dron, który miał wykonać to zadanie, zwrócił się przeciwko próbującemu go ograniczyć człowiekowi.
Kiedy sprawa została ujawniona przez media, Siły Powietrzne zaczęły się wycofywać. Pojawiła się informacja, że opisanych działań nie przeprowadzono lub doszło do przekłamań. Ale mleko się rozlało. To, że prace nad AI są szeroko prowadzone przez wiele krajów świata, jest jasne.
Dalsza część artykułu pod materiałem wideo
Kto, po co, dlaczego?
O badaniach nad wojskowym zastosowaniem AI wiadomo nie od dziś. Prowadzi je także NATO. Obszar ten, jak mówi o2.pl komandor Wiesław Goździewicz, specjalista w zakresie planowania operacyjnego Sojuszu, nazywa się "Emegring and Disruptive Technologies" i jest jednym z priorytetowych obszarów badań.
Warto przypomnieć, że NATO uruchomiło specjalny program, mający rozwijać nowe technologie. To tzw. DIANA - Defence Innovation Accelerator for the North Atlantic, czyli Północnoatlantycki Akcelerator Innowacji Obronnych. Ma on wykorzystywać współdziałanie ośrodków akademickich i sektora prywatnego dla tworzenia nowoczesnych rozwiązań obronnych. Wśród nich są także wyzwania i zagadnienia związane z AI czy technologią kwantową.
Jednym z najważniejszych pytań jest to, o wykorzystanie bojowe AI. To coś, co budzi największe obawy badaczy, wojskowych, ale także etyków. Sztuczna inteligencja może bowiem mieć zupełnie inną etykę od tego, co znamy z przypadków "ludzkich". Obawy zachodzą przede wszystkim o kwestie moralne wykorzystania takiej technologii.
Ryzyko jest zawsze i wspólnota międzynarodowa postuluje między innymi rozwój algorytmów odpornych na tzw. oddziaływania kwantowe, które mogłyby doprowadzić do paraliżu bądź zniszczenia całych sektorów infrastruktury krytycznej - mówi dalej Goździewicz.
Rozwojem systemów AI żywo zainteresowana jest także Organizacja Narodów Zjednoczonych. W 2018 r. jej sekretarz generalny, Antonio Guterres podkreślił znaczenie utrzymania sztucznej inteligencji pod kontrolą człowieka. Pod auspicjami agendy rozbrojeniowej ONZ powołano tzw. Grupę Rządowych Ekspertów (Group of Governmnental Experts), która opracowuje zasady odpowiedzialnego rozwoju autonomicznych systemów uzbrojenia i wojskowych zastosowań sztucznej inteligencji.
"Bardzo wiele scenariuszy"
Czy zatem należy snuć katastroficzne wizje, że wkrótce maszyny zapanują nad światem, niczym w filmie "Terminator"? Prof. Włodzisław Duch, ekspert w zakresie informatyki stosowanej, neuroinformatyki, sztucznej inteligencji oraz uczenia maszynowego z Torunia przekonuje, że "obawiać można się wszystkiego, ale tu trzeba być po prostu bardzo ostrożnym".
Maszyna nie jest oparta na regułach postępowania, które ją ograniczają. Mamy bardzo złożony system, sieć neuronową o setkach miliardów parametrów, która wytwarza pewien stan reprezentujący cel jej przedstawiony i do niego dąży. Ta sieć była też uczona, że ma chronić ludzi. Ale to są rzeczy płynne, jest bardzo wiele możliwych scenariuszy. Jeśli niedostatecznie silnie wymusimy na niej przestrzeganie reguł, to możemy dostać taką sytuację, jaka miała miejsce - mówi o2.pl prof. Duch.
Dodaje, że reguły należy wymuszać na etapie uczenia. Ludzie próbują wymusić na maszynach preferencje, które są zgodne z ich założeniami. Np. takie, że są pewne urządzenia czy ludzie, których należy chronić za wszelką cenę, ale jest to, jak przekonuje, bardzo trudne do nauczenia.
Powoli nasze podejście do tak dużych, skomplikowanych modeli zaczyna przypominać podejście do psychologii ludzkiej. W informatyce mówi się o "data flow machines" – to taki rodzaj architektury systemu, który nie jest programem, to przepływ kolejnych danych wymusza reakcje, zmiany zachowania systemu. To sprawia, że system staje się mało przewidywalny. My próbujemy to ustrukturyzować poprzez właśnie wymuszanie pewnych preferencji, ale nie ma gwarancji, że to się w każdej sytuacji uda - mówi dalej naukowiec.
Na koniec zaś dodaje, że mając do czynienia z bardzo złożonym systemem, nigdy nie da się go w pełni kontrolować. Pozostawienie wszystkiego po stronie systemów cybernetycznych jest bardziej niebezpieczne, niż po stronie ludzi. Taką cenę płacimy za to, że mamy uniwersalne mózgi i dochodzimy do tego, iż systemy sztucznej inteligencji nabierają podobnych własności.
Prof. Zybertowicz: Wprowadzić moratorium
Obawy o nadmierny rozwój AI od lat artykułuje także doradca prezydenta Andrzeja Dudy, prof. Andrzej Zybertowicz. Ten socjolog z Uniwersytetu Mikołaja Kopernika w Toruniu wprost mówi, że na część eksperymentów i badań nad problemem powinno być nałożone moratorium.
Moim zdaniem są racjonalne podstawy do obaw. Od lat opowiadam się po stronie tych ekspertów, którzy domagają się wprowadzenia moratorium technologicznego – czyli spowolnienia lub czasowego wstrzymania badań i rozwoju na niektórych polach. Uzasadnień dla takiego stanowiska jest wiele, ale najbardziej bodaj podstawowe mówi, że w ostatnich miesiącach zbliżyliśmy się do miejsca, w którym następuje przekroczenie bezpiecznej granicy rozwoju technologii. Tworzone przez ludzi systemy AI na kolejnych polach przekraczają możliwości najwybitniejszych nawet ludzkich umysłów - mówi o2.pl prof. Zybertowicz.
Jako przykład podaje choćby popularny ChatGPT. Od momentu uruchomienia go pod koniec listopada 2022 wiadomo, że sukces tego systemu osiągnięto m.in. dzięki temu, że złamano wiele postulowanych od lat reguł tworzenia bezpiecznej sztucznej inteligencji.
Jak mówi, wbrew uzasadnionym przestrogom, liczne systemy AI obecnie mają praktycznie niekontrolowany dostęp do Internetu. A zatem także do potężnych zasobów wiedzy tam zgromadzonej, mogą wchodzić w kontakty z milionami (niebawem miliardami) ludzi. Z jednej strony pomagają ludziom lub są dla nich tylko zabawkami, z drugiej zaś coraz lepiej poznają ludzką psychikę, ucząc się coraz skuteczniej nami manipulować.
Wystarczy przewaga
Profesor tłumaczy również, że aby stanowić poważne zagrożenie dla społecznego i cywilizacyjnego dobrostanu, AI nie musi być w pełni autonomiczna, świadoma. Nie musi być, jak mówi, "ogólna" – w tym sensie, że ogarnia tak liczne obszary zadań, jak robi to umysł ludzki, ani nie musi też być bardziej inteligentna od człowieka, nie musi mieć celów panowania nad ludzkością lub też likwidacji naszego gatunku.
Wystarczy, że jakiś system czy systemy AI uzyskają przewagę na jakimś polu funkcjonowania dzisiejszej cywilizacji (np. działania rynków finansowych lub teorii zdrowia psychicznego), by samoistnie, ale niejako przy okazji, uruchomić destrukcyjne procesy społeczne - przekonuje.
Wreszcie, przypomina też inne zagrożenie. Skrajnie groźna może być też sytuacja, gdyby jeszcze nie całkiem autonomiczna, ale już wysoce sprawna na wybranych polach AI została wykorzystana jako instrument osiągnięcia przewagi przez złowrogich aktorów. Kogo przez to rozumie? Międzynarodowe grupy przestępcze, terrorystyczne, oligarchie biznesowe lub też agresywne państwa.
Nie tak zaraz ten ambaras
Nieco bardziej wstrzemięźliwy jest dr Łukasz Olejnik, niezależny badacz i konsultant, autor książki "Filozofia Cyberbezpieczeństwa". Przekonuje on, że nie dochodzimy jeszcze do punktu, w którym AI może stać się niebezpieczna dla swoich twórców.
To wciąż wczesny etap rozwoju tych technologii. Oczywiście metody AI mogą być użyte na nieodpowiedzialne i groźne sposoby, ale to samo można powiedzieć o innych rozwiązaniach. Generalnie, trzeba myśleć w jaki sposób rzeczy mogą pójść źle. Takie "ćwiczenia myślowe" jak opisano w przypadku "ataku" drona na operatora są wobec tego wartościowe - twierdzi.
Twoja opinia pozwala nam tworzyć lepsze treści.