Cenimy Twoją prywatność

Kliknij "AKCEPTUJĘ I PRZECHODZĘ DO SERWISU", aby wyrazić zgodę na korzystanie w Internecie z technologii automatycznego gromadzenia i wykorzystywania danych oraz na przetwarzanie Twoich danych osobowych przez Wirtualną Polskę, Zaufanych Partnerów IAB (880 partnerów) oraz pozostałych Zaufanych Partnerów (405 partnerów) a także udostępnienie przez nas ww. Zaufanym Partnerom przypisanych Ci identyfikatorów w celach marketingowych (w tym do zautomatyzowanego dopasowania reklam do Twoich zainteresowań i mierzenia ich skuteczności) i pozostałych, które wskazujemy poniżej. Możesz również podjąć decyzję w sprawie udzielenia zgody w ramach ustawień zaawansowanych.


Na podstawie udzielonej przez Ciebie zgody Wirtualna Polska, Zaufani Partnerzy IAB oraz pozostali Zaufani Partnerzy będą przetwarzać Twoje dane osobowe zbierane w Internecie (m.in. na serwisach partnerów e-commerce), w tym za pośrednictwem formularzy, takie jak: adresy IP, identyfikatory Twoich urządzeń i identyfikatory plików cookies oraz inne przypisane Ci identyfikatory i informacje o Twojej aktywności w Internecie. Dane te będą przetwarzane w celu: przechowywania informacji na urządzeniu lub dostępu do nich, wykorzystywania ograniczonych danych do wyboru reklam, tworzenia profili związanych z personalizacją reklam, wykorzystania profili do wyboru spersonalizowanych reklam, tworzenia profili z myślą o personalizacji treści, wykorzystywania profili w doborze spersonalizowanych treści, pomiaru wydajności reklam, pomiaru wydajności treści, poznawaniu odbiorców dzięki statystyce lub kombinacji danych z różnych źródeł, opracowywania i ulepszania usług, wykorzystywania ograniczonych danych do wyboru treści.


W ramach funkcji i funkcji specjalnych Wirtualna Polska może podejmować następujące działania:

  1. Dopasowanie i łączenie danych z innych źródeł
  2. Łączenie różnych urządzeń
  3. Identyfikacja urządzeń na podstawie informacji przesyłanych automatycznie
  4. Aktywne skanowanie charakterystyki urządzenia do celów identyfikacji

Cele przetwarzania Twoich danych przez Zaufanych Partnerów IAB oraz pozostałych Zaufanych Partnerów są następujące:

  1. Przechowywanie informacji na urządzeniu lub dostęp do nich
  2. Wykorzystywanie ograniczonych danych do wyboru reklam
  3. Tworzenie profili w celu spersonalizowanych reklam
  4. Wykorzystanie profili do wyboru spersonalizowanych reklam
  5. Tworzenie profili w celu personalizacji treści
  6. Wykorzystywanie profili w celu doboru spersonalizowanych treści
  7. Pomiar efektywności reklam
  8. Pomiar efektywności treści
  9. Rozumienie odbiorców dzięki statystyce lub kombinacji danych z różnych źródeł
  10. Rozwój i ulepszanie usług
  11. Wykorzystywanie ograniczonych danych do wyboru treści
  12. Zapewnienie bezpieczeństwa, zapobieganie oszustwom i naprawianie błędów
  13. Dostarczanie i prezentowanie reklam i treści
  14. Zapisanie decyzji dotyczących prywatności oraz informowanie o nich

W ramach funkcji i funkcji specjalnych nasi Zaufani Partnerzy IAB oraz pozostali Zaufani Partnerzy mogą podejmować następujące działania:

  1. Dopasowanie i łączenie danych z innych źródeł
  2. Łączenie różnych urządzeń
  3. Identyfikacja urządzeń na podstawie informacji przesyłanych automatycznie
  4. Aktywne skanowanie charakterystyki urządzenia do celów identyfikacji

Dla podjęcia powyższych działań nasi Zaufani Partnerzy IAB oraz pozostali Zaufani Partnerzy również potrzebują Twojej zgody, którą możesz udzielić poprzez kliknięcie w przycisk "AKCEPTUJĘ I PRZECHODZĘ DO SERWISU" lub podjąć decyzję w sprawie udzielenia zgody w ramach ustawień zaawansowanych.


Cele przetwarzania Twoich danych bez konieczności uzyskania Twojej zgody w oparciu o uzasadniony interes Wirtualnej Polski, Zaufanych Partnerów IAB oraz możliwość sprzeciwienia się takiemu przetwarzaniu znajdziesz w ustawieniach zaawansowanych.


Cele, cele specjalne, funkcje i funkcje specjalne przetwarzania szczegółowo opisujemy w ustawieniach zaawansowanych.


Serwisy partnerów e-commerce, z których możemy przetwarzać Twoje dane osobowe na podstawie udzielonej przez Ciebie zgody znajdziesz tutaj.


Zgoda jest dobrowolna i możesz ją w dowolnym momencie wycofać wywołując ponownie okno z ustawieniami poprzez kliknięcie w link "Ustawienia prywatności" znajdujący się w stopce każdego serwisu.


Pamiętaj, że udzielając zgody Twoje dane będą mogły być przekazywane do naszych Zaufanych Partnerów z państw trzecich tj. z państw spoza Europejskiego Obszaru Gospodarczego.


Masz prawo żądania dostępu, sprostowania, usunięcia, ograniczenia, przeniesienia przetwarzania danych, złożenia sprzeciwu, złożenia skargi do organu nadzorczego na zasadach określonych w polityce prywatności.


Korzystanie z witryny bez zmiany ustawień Twojej przeglądarki oznacza, że pliki cookies będą umieszczane w Twoim urządzeniu końcowym. W celu zmiany ustawień prywatności możesz kliknąć w link Ustawienia zaawansowane lub "Ustawienia prywatności" znajdujący się w stopce każdego serwisu w ramach których będziesz mógł udzielić, odwołać zgodę lub w inny sposób zarządzać swoimi wyborami. Szczegółowe informacje na temat przetwarzania Twoich danych osobowych znajdziesz w polityce prywatności.

Łukasz Maziewski
Łukasz Maziewski | 
aktualizacja 

Człowiek "zabity" przez AI? Bardzo niepokojące wieści z USA

216

Wielki przełom czy humbug? Siły Powietrzne USA miały testować wykorzystanie sztucznej inteligencji (AI) w obsłudze bojowego drona. Człowiek miał mieć możliwość ograniczenia drona. Kiedy próbował to zrobić, sztuczna inteligencja miała zwrócić się przeciwko niemu. Teraz Siły Powietrzne dementują, że doszło do takiego zdarzenia.

Człowiek "zabity" przez AI? Bardzo niepokojące wieści z USA
Bezzałogowiec bojowy MQ-9 Reaper, wykorzystywany przez siły zbrojne USA (Flickr)

Sprawa jest dość tajemnicza. Opisał ją magazyn "Newsweek", podając zarazem, że nie był to pełnoprawny test, a symulacja. Doszło do niej podczas konferencji Future Combat Air & Space Capabilities Summit, która odbyła się pod koniec maja.

"Newsweek" opisuje, że symulacja została przeprowadzona w celu dowiedzenia, iż AI wciąż nie jest doskonała. Symulacja polegała na niszczeniu przez drona pocisków ziemia-powietrze. Dron, który miał wykonać to zadanie, zwrócił się przeciwko próbującemu go ograniczyć człowiekowi.

Kiedy sprawa została ujawniona przez media, Siły Powietrzne zaczęły się wycofywać. Pojawiła się informacja, że opisanych działań nie przeprowadzono lub doszło do przekłamań. Ale mleko się rozlało. To, że prace nad AI są szeroko prowadzone przez wiele krajów świata, jest jasne.

Dalsza część artykułu pod materiałem wideo

Zobacz także: Artyści i twórcy stracą pracę przez sztuczną inteligencję? Prawo za tym nie nadąża

Kto, po co, dlaczego?

O badaniach nad wojskowym zastosowaniem AI wiadomo nie od dziś. Prowadzi je także NATO. Obszar ten, jak mówi o2.pl komandor Wiesław Goździewicz, specjalista w zakresie planowania operacyjnego Sojuszu, nazywa się "Emegring and Disruptive Technologies" i jest jednym z priorytetowych obszarów badań.

Trwa ładowanie wpisu:twitter

Warto przypomnieć, że NATO uruchomiło specjalny program, mający rozwijać nowe technologie. To tzw. DIANA - Defence Innovation Accelerator for the North Atlantic, czyli Północnoatlantycki Akcelerator Innowacji Obronnych. Ma on wykorzystywać współdziałanie ośrodków akademickich i sektora prywatnego dla tworzenia nowoczesnych rozwiązań obronnych. Wśród nich są także wyzwania i zagadnienia związane z AI czy technologią kwantową.

Jednym z najważniejszych pytań jest to, o wykorzystanie bojowe AI. To coś, co budzi największe obawy badaczy, wojskowych, ale także etyków. Sztuczna inteligencja może bowiem mieć zupełnie inną etykę od tego, co znamy z przypadków "ludzkich". Obawy zachodzą przede wszystkim o kwestie moralne wykorzystania takiej technologii.

Ryzyko jest zawsze i wspólnota międzynarodowa postuluje między innymi rozwój algorytmów odpornych na tzw. oddziaływania kwantowe, które mogłyby doprowadzić do paraliżu bądź zniszczenia całych sektorów infrastruktury krytycznej - mówi dalej Goździewicz.

Rozwojem systemów AI żywo zainteresowana jest także Organizacja Narodów Zjednoczonych. W 2018 r. jej sekretarz generalny, Antonio Guterres podkreślił znaczenie utrzymania sztucznej inteligencji pod kontrolą człowieka. Pod auspicjami agendy rozbrojeniowej ONZ powołano tzw. Grupę Rządowych Ekspertów (Group of Governmnental Experts), która opracowuje zasady odpowiedzialnego rozwoju autonomicznych systemów uzbrojenia i wojskowych zastosowań sztucznej inteligencji.

"Bardzo wiele scenariuszy"

Czy zatem należy snuć katastroficzne wizje, że wkrótce maszyny zapanują nad światem, niczym w filmie "Terminator"? Prof. Włodzisław Duch, ekspert w zakresie informatyki stosowanej, neuroinformatyki, sztucznej inteligencji oraz uczenia maszynowego z Torunia przekonuje, że "obawiać można się wszystkiego, ale tu trzeba być po prostu bardzo ostrożnym".

Maszyna nie jest oparta na regułach postępowania, które ją ograniczają. Mamy bardzo złożony system, sieć neuronową o setkach miliardów parametrów, która wytwarza pewien stan reprezentujący cel jej przedstawiony i do niego dąży. Ta sieć była też uczona, że ma chronić ludzi. Ale to są rzeczy płynne, jest bardzo wiele możliwych scenariuszy. Jeśli niedostatecznie silnie wymusimy na niej przestrzeganie reguł, to możemy dostać taką sytuację, jaka miała miejsce - mówi o2.pl prof. Duch.

Dodaje, że reguły należy wymuszać na etapie uczenia. Ludzie próbują wymusić na maszynach preferencje, które są zgodne z ich założeniami. Np. takie, że są pewne urządzenia czy ludzie, których należy chronić za wszelką cenę, ale jest to, jak przekonuje, bardzo trudne do nauczenia.

Powoli nasze podejście do tak dużych, skomplikowanych modeli zaczyna przypominać podejście do psychologii ludzkiej. W informatyce mówi się o "data flow machines" – to taki rodzaj architektury systemu, który nie jest programem, to przepływ kolejnych danych wymusza reakcje, zmiany zachowania systemu. To sprawia, że system staje się mało przewidywalny. My próbujemy to ustrukturyzować poprzez właśnie wymuszanie pewnych preferencji, ale nie ma gwarancji, że to się w każdej sytuacji uda - mówi dalej naukowiec.

Na koniec zaś dodaje, że mając do czynienia z bardzo złożonym systemem, nigdy nie da się go w pełni kontrolować. Pozostawienie wszystkiego po stronie systemów cybernetycznych jest bardziej niebezpieczne, niż po stronie ludzi. Taką cenę płacimy za to, że mamy uniwersalne mózgi i dochodzimy do tego, iż systemy sztucznej inteligencji nabierają podobnych własności.

Prof. Zybertowicz: Wprowadzić moratorium

Obawy o nadmierny rozwój AI od lat artykułuje także doradca prezydenta Andrzeja Dudy, prof. Andrzej Zybertowicz. Ten socjolog z Uniwersytetu Mikołaja Kopernika w Toruniu wprost mówi, że na część eksperymentów i badań nad problemem powinno być nałożone moratorium.

Moim zdaniem są racjonalne podstawy do obaw. Od lat opowiadam się po stronie tych ekspertów, którzy domagają się wprowadzenia moratorium technologicznego – czyli spowolnienia lub czasowego wstrzymania badań i rozwoju na niektórych polach. Uzasadnień dla takiego stanowiska jest wiele, ale najbardziej bodaj podstawowe mówi, że w ostatnich miesiącach zbliżyliśmy się do miejsca, w którym następuje przekroczenie bezpiecznej granicy rozwoju technologii. Tworzone przez ludzi systemy AI na kolejnych polach przekraczają możliwości najwybitniejszych nawet ludzkich umysłów - mówi o2.pl prof. Zybertowicz.

Jako przykład podaje choćby popularny ChatGPT. Od momentu uruchomienia go pod koniec listopada 2022 wiadomo, że sukces tego systemu osiągnięto m.in. dzięki temu, że złamano wiele postulowanych od lat reguł tworzenia bezpiecznej sztucznej inteligencji.

Jak mówi, wbrew uzasadnionym przestrogom, liczne systemy AI obecnie mają praktycznie niekontrolowany dostęp do Internetu. A zatem także do potężnych zasobów wiedzy tam zgromadzonej, mogą wchodzić w kontakty z milionami (niebawem miliardami) ludzi. Z jednej strony pomagają ludziom lub są dla nich tylko zabawkami, z drugiej zaś coraz lepiej poznają ludzką psychikę, ucząc się coraz skuteczniej nami manipulować.

Wystarczy przewaga

Profesor tłumaczy również, że aby stanowić poważne zagrożenie dla społecznego i cywilizacyjnego dobrostanu, AI nie musi być w pełni autonomiczna, świadoma. Nie musi być, jak mówi, "ogólna" – w tym sensie, że ogarnia tak liczne obszary zadań, jak robi to umysł ludzki, ani nie musi też być bardziej inteligentna od człowieka, nie musi mieć celów panowania nad ludzkością lub też likwidacji naszego gatunku.

Wystarczy, że jakiś system czy systemy AI uzyskają przewagę na jakimś polu funkcjonowania dzisiejszej cywilizacji (np. działania rynków finansowych lub teorii zdrowia psychicznego), by samoistnie, ale niejako przy okazji, uruchomić destrukcyjne procesy społeczne - przekonuje.

Wreszcie, przypomina też inne zagrożenie. Skrajnie groźna może być też sytuacja, gdyby jeszcze nie całkiem autonomiczna, ale już wysoce sprawna na wybranych polach AI została wykorzystana jako instrument osiągnięcia przewagi przez złowrogich aktorów. Kogo przez to rozumie? Międzynarodowe grupy przestępcze, terrorystyczne, oligarchie biznesowe lub też agresywne państwa.

Nie tak zaraz ten ambaras

Nieco bardziej wstrzemięźliwy jest dr Łukasz Olejnik, niezależny badacz i konsultant, autor książki "Filozofia Cyberbezpieczeństwa". Przekonuje on, że nie dochodzimy jeszcze do punktu, w którym AI może stać się niebezpieczna dla swoich twórców.

To wciąż wczesny etap rozwoju tych technologii. Oczywiście metody AI mogą być użyte na nieodpowiedzialne i groźne sposoby, ale to samo można powiedzieć o innych rozwiązaniach. Generalnie, trzeba myśleć w jaki sposób rzeczy mogą pójść źle. Takie "ćwiczenia myślowe" jak opisano w przypadku "ataku" drona na operatora są wobec tego wartościowe - twierdzi.
Dziękujemy za Twoją ocenę!

Twoja opinia pozwala nam tworzyć lepsze treści.

Które z określeń najlepiej opisują artykuł:
Wybrane dla Ciebie
Turniej w USA na celowniku. Miliony dolarów w puli, a piłkarze niezadowoleni?
Noworodek w oknie życia w Legionowie. Ważna wiadomość dla rodziców chłopca
Robinho wziął się do pracy w więzieniu. Wiadomo, co robi
Prezydent Argentyny żartuje z Neymara. Internet płonie od jego wpisów
Przepiszą podręczniki? Sensacja na Wyspach
Dyrektor LP wydał polecenie. Trwa akcja Straży Leśnej w polskich lasach
Miss upadła na ulicy. Druzgocąca diagnoza dla 27-latki
Był kościół, jest basen. Niezwykły widok w Londynie
"Nie odda ulubionej zabawki". Ekspert pewny ws. Putina
Wstrząsające nagranie z Seulu. Motocyklista wpadł do dziury. Nie żyje
Kiedy przycinać aronię? Termin już blisko
"Każdy chciałby znaleźć się na pierwszej linii". Rosyjski duchowny szokuje
Przejdź na
Oferty dla Ciebie
Wystąpił problem z wyświetleniem strony Kliknij tutaj, aby wyświetlić