The Elders założyli były prezydent RPA Nelson Mandela oraz sam Branson. Jej celem jest zajmowanie się prawami człowieka w ujęciu globalnym.
List jest zaadresowany do światowych przywódców. To wezwanie, żeby zajęli się tworzeniem długoterminowej strategii i zachowali "determinację w rozwiązywaniu nierozwiązywalnych problemów, a nie tylko zarządzaniu nimi, mądrość w podejmowaniu decyzji w oparciu o dowody naukowe i rozsądek, a także pokorę w słuchaniu wszystkich, których to dotyczy".
Podstawowymi działaniami, jakie zdaniem sygnatariuszy listu należałoby podjąć, jest odejście od paliw kopalnych, podpisanie sprawiedliwego traktatu pandemicznego, wznowienie rozmów o broni nuklearnej ale też budowanie wspólnego globalnego zarządzania, mającego na celu uczynienie sztucznej inteligencji siłą jedynie w dobrych celach.
Dalsza część artykułu pod materiałem wideo
Przesłanie zawarte w liście popiera też inna organizacja, Future of Life Institute, założona przez kosmologa z MIT Maxa Tegmarka oraz współzałożyciela Skype'a, Jaana Tallina.
Czytaj także: Leży na głębokości 200 metrów. Od lat skrywa tajemnicę
Jak podkreśla Tegmark, technologia sama w sobie nie jest zła, ale pozostaje "narzędziem", które może doprowadzić do strasznych konsekwencji, jeśli jej rozwój znajdzie się w rękach złych ludzi.
Stara strategia kierowania w kierunku dobrych zastosowań (jeśli chodzi o nowe technologie) zawsze polegała na uczeniu się na błędach. Wymyśliliśmy ogień, a później gaśnicę. Wynaleźliśmy samochód, potem wyciągnęliśmy wnioski z naszych błędów i wymyśliliśmy pasy bezpieczeństwa, sygnalizację świetlną i ograniczenia prędkości - mówił Tegmark w rozmowie z CNBC.
List wydano przed Konferencją Bezpieczeństwa w Monachium, podczas której urzędnicy rządowi, przywódcy wojskowi i dyplomaci będą omawiać bezpieczeństwo międzynarodowe w obliczu eskalacji globalnych konfliktów zbrojnych, w tym wojen między Rosją a Ukrainą i Izraelem a Hamasem. Tegmark ma się tam zjawić osobiście, żeby propagować przesłanie listu.
Zatrzymać sztuczną inteligencję
W zeszłym roku Future of Life opublikowało swój list, który poparli m.in. szef Tesli Elon Musk czy współzałożyciel Apple Steve Wozniak. Wzywali w nim laboratoria sztucznej inteligencji, aby wstrzymały szkolenie modeli AI potężniejszych, niż GPT-4, będące obecnie najbardziej zaawansowanym modelem AI z OpenAI Sama Altmana.
Postulat przerwania rozwijania sztucznej inteligencji miał na celu uniknięcie sytuacji "utraty kontroli" nad cywilizacją, bo może skutkować likwidacją miejsc pracy a także przechytrzeniem ludzi przez komputery.
Twoja opinia pozwala nam tworzyć lepsze treści.