Geoffrey Hinton, laureat Nagrody Nobla w dziedzinie fizyki za badania nad sztuczną inteligencją, wyraził poważne obawy dotyczące tempa rozwoju AI. Hinton, często określany mianem "ojca chrzestnego AI", zwrócił uwagę, że postęp w tej dziedzinie przebiega znacznie szybciej, niż się spodziewano. Opuścił swoje stanowisko w Google, aby dzielić się przemyśleniami na temat zagrożeń, jakie niesie sztuczna inteligencja.
W rozmowie z BBC Radio 4 Hinton oszacował, że istnieje 10-20 proc. szans, iż AI mogłaby doprowadzić do zagłady ludzkości. Zauważył, że nigdy wcześniej ludzie nie mieli do czynienia z bytem inteligentniejszym od siebie, co stanowi niezwykłe wyzwanie. "Ile znasz przykładów, gdzie coś bardziej inteligentnego jest kontrolowane przez coś mniej inteligentnego?" – pytał retorycznie.
Dalsza część artykułu pod materiałem wideo
Profesor podkreślił, że spowolnienie rozwoju AI jest możliwe jedynie dzięki wprowadzeniu regulacji rządowych, które wymuszą na korporacjach bardziej odpowiedzialne podejście do tej technologii. Ilustrując potencjalną przepaść w inteligencji między ludźmi a AI, Hinton porównał nas do trzylatków w obliczu znacznie potężniejszego intelektu maszyn.
Czytaj także: Pies w kojcu na mrozie. Sprawą zajęła się policja
Noblista przyznał, że skala i szybkość rozwoju AI zaskoczyły nawet jego samego. Eksperci prognozują, że w ciągu najbliższych 20 lat powstaną systemy AI przewyższające ludzką inteligencję, co Hinton uznaje za niepokojącą perspektywę. Jego zdaniem jedynie odpowiednie regulacje mogą opóźnić ten proces i zmniejszyć ryzyko związane z technologią.
Jak donosi "LadBible", obawy Hinton'a obejmują m.in. ryzyko zalewania internetu przez AI fałszywymi treściami, generowanie dezinformacji i manipulacje polityczne. Zwrócił także uwagę na możliwy odpływ miejsc pracy, który może wstrząsnąć rynkiem zatrudnienia.
Sztuczna inteligencja może być niebezpieczna?
Podczas niedawnego spotkania w Bletchley Park, które zgromadziło polityków, liderów branży technologicznej oraz ekspertów AI, w tym Hinton'a, omawiano globalne zagrożenia związane ze sztuczną inteligencją.
Dyskusje skoncentrowano na potrzebie międzynarodowej współpracy w zakresie regulacji, by zapobiec osiągnięciu przez AI samoświadomości lub stworzeniu przez nią broni biologicznej. Wskazano, że AI powinna być monitorowana równie rygorystycznie jak technologie nuklearne, ponieważ bez odpowiednich regulacji może stać się zagrożeniem na skalę broni masowego rażenia.
Twoja opinia pozwala nam tworzyć lepsze treści.