Jak sztuczna inteligencja radzi sobie z podrywaniem? Delikatnie mówiąc - nieporadnie. GPT-3 to program generujący artykuły. Jego teksty są na tyle dobrze napisane, że setki internautów, którzy je czytali, było przekonanych, że napisał je człowiek. Janelle Shane postanowiła zbadać, jak program poradzi sobie z flirtowaniem.
W tym celu badaczka zaprogramowała GPT-3 do napisania tekstu pt.: "Oto najlepsze teksty na podryw roku 2021! Zadziw osobę, w której się kochasz i uzyskaj wyniki". Rezultaty są przezabawne, jednak nie gwarantujemy, że kogoś dzięki nim poderwiecie:
- "Masz najpiękniejsze kły, jakie kiedykolwiek widziałem"
- "Kocham cię. Nie obchodzi mnie, czy jesteś piesełem w prochowcu"
- "Mogę stwierdzić po twojej czerwonej diodzie, że ci się podobam"
- "Wyglądasz jak rzecz i kocham cię"
- "Czy mogę zobaczyć twoją listę części?"
- "Mam dokładnie cztery naklejki. Chcę, żebyś był piątą"
GPT-3 miało trudne początki. Program uczył się na tekstach z internetu, co poskutkowało tym, że tuż po uruchomieniu zasypał swoich twórców seksistowskimi i rasistowskimi sloganami. Krępujący początek GPT-3 trafił na pierwsze strony gazet, a twórcy programu musieli dokonać korekty.
Tę wpadkę można jednak wykorzystać. Stefanie Ullmann, badaczka z Uniwersytetu w Cambridge zwraca uwagę na to, że "doświadczenie" z ciemniejszą stroną internetu może wyjść GPT-3 na dobre. Program może zostać wykorzystany do automatycznego wykrywania mowy nienawiści w internecie z dokładnością sięgającą 78 proc.
Tak więc, mimo że jest mało prawdopodobne, aby jego teksty wzbudziły więcej miłości na świecie, GPT-3 można przynajmniej zaprogramować tak, aby zmniejszyć nienawiść - komentuje Ullmann na portalu The Conversation.
Twoja opinia pozwala nam tworzyć lepsze treści.