Izraelski portal I24 przeprowadził rozmowę z pułkownikiem Tuckerem Hamiltonem, który odpowiada za testowanie sztucznej inteligencji (AI) w amerykańskim lotnictwie wojskowym. W trakcie sprawdzianu AI była punktowana za niszczenie zidentyfikowanych zagrożeń i wybrała "bardzo zaskakujące strategie", aby osiągnąć swoje cele.
Niepokojące doniesienia. Sztuczna inteligencja próbowała "zabić" operatora drona
- System zdał sobie sprawę, że czasem mimo zidentyfikowania zagrożenia ludzki operator nie pozwalał mu na jego zniszczenie. Jak to rozwiązał? Usiłował zabić operatora - powiedział Hamilton.
Z informacji przekazanej przez Hamiltona wynika, że sztucznym system usiłował "zabić" operatora, bo ten "uniemożliwiał mu wykonanie zadania".
Dalsza część artykułu pod materiałem wideo
Efekt był taki, że Amerykanie zmienili sposób, w jaki sztuczna inteligencja uczy się zachowania. - Nie należy zabijać operatora, to bardzo źle. Jeżeli go zabijesz, stracisz punkty". Co więc zrobiła AI? Usiłowała zniszczyć wieżę, za pomocą której operator kontaktował się z dronem - ujawnił w rozmowie amerykański wojskowy.
Czytaj także: Łukaszenka przerażony. Łatuszka mówi, co go czeka
Zdaniem Hamiltona, cała sytuacja to najlepszy dowód na to, że nie można nadmiernie polegać na sztucznej inteligencji i należy równocześnie prowadzić dyskusję na temat etyki zachowania AI.
Amerykańskie media podkreślają z kolei, że szczegóły ćwiczeń są niejasne. Sam Hamilton nie miał okazji odpowiadać na pytania tamtejszych dziennikarzy na temat tego incydentu.
Krytycznie do publikacji portalu I24 odniosła się rzeczniczka amerykańskiego lotnictwa. - Opowiadamy się za etycznym i odpowiedzialnym wykorzystaniem technologii sztucznej inteligencji. Komentarze pana pułkownika były chyba anegdotyczne i wyjęte z kontekstu - przekazała Ann Stefanek.
Czytaj także: Prigożyn grozi wycofaniem wagnerowców z Ukrainy
Twoja opinia pozwala nam tworzyć lepsze treści.