Sztuczna inteligencja wykorzystywana przy metodzie na wnuczka? To już nie jest science-fiction, to rzeczywistość. Jak opisuje "Gazeta Wyborcza", narzędzia AI zostały wykorzystane podczas wyłudzenia pieniędzy od pani Zofii.
Sztuczna inteligencja odtworzyła głos jej córki
Oszukana kobieta w rozmowie z "Wyborczą" opisuje, że pewnego dnia dostała telefon od "córki". Głos kobiety po drugiej stronie słuchawki był łudząco podobny do głosu pani Karoliny.
Młodsza z kobiet miała powiedzieć, że doprowadziła do wypadku z udziałem ciężarnej na pasach. Potem pani Zofia usłyszała, że jej córka jest w komendzie i potrzebuje 200 tys. złotych na kaucję.
Dalsza część artykułu pod materiałem wideo
Po chwili jej "córka" się rozłączyła. Pani Zofia słyszała o podobnych zdarzeniach. Nie była jednak przygotowana na to, że oszuści podłożą głos pani Karoliny.
Żadna lampka się nam nie zapaliła. Nogi się uginają, logika się wyłącza. Gdybyśmy mieli w domu pieniądze, a głos, przecież mojej własnej córki, kazałby je wyrzucić przez okno, tobyśmy wyrzucili - powiedziała pani Zofia dla "GW".
Zobacz koniecznie: Dzwonią do Polaków. Nowa metoda oszustów
Mówiły, że to oszustwo na wnuczka
Pani Zofia pojechała do banku, aby wypłacić 30 tys. złotych. Pracownice placówki ostrzegały ją, że może to być próba wyłudzenia pieniędzy, ale zdesperowanej kobiety nie dało się przekonać.
Na szczęście pani Zofia zamiast udać się do mieszkania pojechała na policję. Dotarła do jednostki, w której miała czekać córka. Dopiero tam poznała prawdę. Mundurowi zadzwonili na telefon pani Karoliny. Cała historia okazała się jednym wielkim oszustwem.
Jak to możliwe, że głos pani Karoliny był dostępny dla oszustów? Kobieta pracuje jako tłumacz podczas wywiadów. Próbki jej głosu są dostępne w sieci. Jej dane są dostępne w państwowej bazie. Jest tam także adres, pod którym mieszka pani Zofia.
Przypadków takich oszustw jest coraz więcej. Jak podaje "GW", do stworzenia deepfejku audio wystarczy czasem zaledwie kilkusekundowa próbka głosu. Niestety, mimo policyjnych apeli nadal wiele osób, w szczególności w podeszłym wieku, daje się omotać oszustom czyhającym po drugiej stronie słuchawki.
W wyniku rozwoju sztucznej inteligencji oszustwa "na wnuczka" mogą stać się coraz trudniejsze do rozpoznania.
Czytaj również: Oszust z komunikatora. Emerytka z Brzeska straciła oszczędności
Twoja opinia pozwala nam tworzyć lepsze treści.