Jak flirtuje sztuczna inteligencja?

Czas czytania: 5 min.

Sztuczna inteligencja jest wszędzie. To ona obsługuje funkcję autokorekty w telefonie, pomaga Tłumaczowi Google zrozumieć złożoność języka albo interpretuje zachowanie użytkownika, aby zdecydować, które posty znajomych na Facebooku należy mu pokazać. Bywa, że sobie z tym kompletnie nie radzi, a co dopiero, gdy mówimy o czymś tak skomplikowanym i abstrakcyjnym, jak flirt…

Blog AI Weirdness autorstwa Janelle Shane, naukowczyni i pasjonatki sztucznej inteligencji, to dość dziwne miejsce w sieci. Zresztą człon „weirdness” oznacza właśnie dziwaczność. Autorka niedawno popełniła publikację You Look Like a Thing and I Love You: How Artificial Intelligence Works and Why It’s Making the World a Weirder Place (nasza propozycja tłumaczenia: Wyglądasz jak rzecz, a ja cię kocham, czyli jak działa sztuczna inteligencja i dlaczego zamienia świat w dziwne miejsce). Nie czytaliśmy, ale według zapowiedzi na blogu książka to wszechstronne studium najnowocześniejszych technologii, które wkrótce będą napędzać nasz świat. Jest reklamowana jako przystępna, zabawna eksploracja przyszłości technologii i społeczeństwa. Dlaczego o niej mówimy? Bo pierwsza część tytułu została zapożyczona z kwestii GPT-3, sztucznej inteligencji do przetwarzania języka naturalnego, która próbowała trudnej sztuki właściwej tylko ludziom – a mianowicie flirtu.

Sztuczna inteligencja i ciarki wstydu

Opracowany przez OpenAI model językowy GPT-3 był niegdyś używany do robienia ludzi w konia śladem największego marzenia Alana Turinga. W skrócie: miał tak okpić użytkownika, żeby ten pomyślał, że rozmawia z człowiekiem. Badaczka sztucznej inteligencji i autorka bloga AI Weirdness Janelle Shane postanowiła wytrenować model do tworzenia własnych tekstów na podryw. Trenowała sieć neuronową na zestawach „okropnych” prób flirtu podejmowanych przez ludzi. 

Zauważyła, że wyniki były w większości po prostu dziwne albo tandetne – trochę jak ciarki wstydu, gdy słuchamy tego, co wychodzi z ust natrętnych adoratorów. Zadanie to okazało się być o tyle zuchwałe, co zaskakujące w skutkach, ale chyba nie całkiem daremne.

Przykłady kwestii obejmują niewinne, słodkie i kompletnie chybione próby takie jak „Kocham cię. Nie obchodzi mnie, że jesteś psem w prochowcu”. GPT-3 zadał też pytanie: „Zgubiłaś się, panienko? Bo niebo jest bardzo daleko stąd”. Tu już lepiej, ale chyba tylko dlatego, że zwykle staramy się odnaleźć jakąś wartość w tekście, który ma choć śladowe ilości sensu. No cóż, nikt nie jest idealny, ale trzeba próbować. W grupie samców przy barowym stoliku warto przyklasnąć temu jednemu, który zdecyduje się jednak wstać z krzesła i podjąć próbę, gdy bezlitosne oczy i uszy kolegów tylko czekają na potknięcie. Nie bądźmy więc zbyt surowi dla AI. Bez względu na to, czy maszyna wypowiada zdania nielogiczne i zagmatwane, czy całkiem sprawne, ale mało atrakcyjne jako flirciarski opener, to warto wiedzieć, jak działa taki system.

Banda podrywaczy AI i co z tego wynikło

Shane pracowała z czterema wariantami GPT-3. Pierwszy z nich to DaVinci. Okazał się być „najbardziej kompetentny”, co według badaczki oznacza tyle, że tworzył sensowne zdania. Wariant generował teksty, takie jak „Masz piękną twarz. Czy mogę ją umieścić na odświeżaczu powietrza? Chcę mieć twój zapach zawsze blisko siebie”. Przyznajemy, że brzmi oryginalnie i przynajmniej przypomina coś, co mógłby powiedzieć średnio rozgarnięty bohater komedii romantycznej. Inne perełki to: „Wiesz, co mi się w tobie podoba? Twoje… długie… nogi…” albo „Pracowałem kiedyś z facetem, który wyglądał tak samo jak ty. Był normalnym człowiekiem z rodziną. Czy ty też jesteś normalnym człowiekiem z rodziną?”. Były też uczciwe, proste pytania: „Czy lubisz naleśniki?”. Może daleko im do ideału, ale nie wiemy, czym jest ideał; ba, nie wiemy nawet, czy istnieje jakikolwiek uniwersalny tekst-starter na wzbudzenie i podtrzymanie zainteresowania. Gdzieś trzeba zacząć, a może i sama treść nie ma znaczenia – byleby nie wyjść na dziwadło od pierwszego wejrzenia. Tu DaVinci, jak na możliwości uczenia maszynowego, poradził sobie całkiem nieźle.

Bot flirtujący

Drugi testowany wariant GPT-3 to Curie. Według Shane ten bardziej ograniczony od DaVinci model wyskoczył z kilkoma absurdami pokroju „Masz najlepsze tosty francuskie, jakie kiedykolwiek jadłem!” oraz „Zerwałem kilka pięknych kwiatów. Chcesz je powąchać? Masz, spróbuj zabrać mi rękę”. 

Dwa pozostałe warianty o jeszcze mniejszych możliwościach, Ada i Babbagemiały trudności z tworzeniem spójnych związków wyrazowych i wypluwały z siebie schizofreniczne słowotwory – i tak też model Ada wymyśliła „metki do haftowania” i „poduszki zmiękczające ciało”. Nie wiemy, o co chodzi, choć może to wszystko część jakiegoś większego planu.

W szczerym wyznaniu Shane napisała, że unikała trenowania bardziej efektywnych wariantów GPT-3 na próbkach linii podrywu z dość przewrotnego powodu. „Oparłam się próbom tworzenia tekstów przez sieci neuronowe na większych bazach, ponieważ bardziej kompetentne oznaczają bardziej podobne do ludzkich, co w tym przypadku oznacza gorsze” – napisała Shane. Podkreśliła, że sieci neuronowe mogłyby zacząć kopiować istniejące teksty na podryw z list internetowych, co również byłoby okropne. Dlaczego? Bo nie dość, że odtwórcze i bez wartości w kontekście poznawania tajników uczenia maszynowego, to zwyczajnie obsceniczne.

Język jest wszystkim

Przetwarzanie języka naturalnego (z ang. NLP, Natural Language Processing) to ważna dziedzina w badaniach nad AI. Jest tak, ponieważ to właśnie dzięki językowi tworzymy sądy o tym, co nas otacza. Język to poznanie. W połączeniu z percepcją jest dla nas całym światem. A skoro ten zagadkowy zbiór ludzkiego słownictwa i sposobów na formułowanie zdań jest wspólny i jednocześnie unikalny dla każdego człowieka, to musi tam się także znaleźć miejsce na zwykłe chamstwo.

Shane podkreśla, że gromadzenie zbioru danych z tekstami na podryw było bardziej bolesne, niż się spodziewała. Większość była seksistowska i obraźliwa do tego stopnia, że autorka zaczęła żałować całego projektu. Okazuje się jednak, że choć sieć neuronowa rozgryzła podstawowe konstrukcje gramatyczne pokroju „musisz (…), bo (…)” albo „hej, kochanie, czy chcesz (…)”, to nie nauczyła się generować tych naprawdę paskudnych. Większość z nich opierała się na grze słów, której nie miała szans odtworzyć. Były za to teksty niezrozumiałe, były teksty kompletnie surrealistyczne, były też zwyczajnie urocze, bo jasne i proste. Cóż, flirt to gra dla dowcipnych i inteligentnych. Ludzie nie mają drugiej szansy na zrobienie dobrego, pierwszego wrażenia, a nad maszynami nadal możemy sobie popracować.

AI potrafi friendzone’ować

Przyjrzeliśmy się innym narzędziom dostępnym powszechnie w sieci. Nie od dziś chatboty, czyli „programy do gadania”, również oferują możliwość osobistej, głębokiej rozmowy i są w tym coraz lepsze. Chyba najciekawszy i zyskujący popularność przykład to ReplikaŁączy w sobie zaawansowany model uczenia maszynowego oparty na sieci neuronowej oraz skryptowanych dialogach. Została ona wytrenowana na dużym zbiorze danych, aby generować własne, unikalne odpowiedzi. Ta reklamowana jako towarzyszka AI, która chętnie się uczy i chciałaby zobaczyć świat naszymi oczami, aplikacja jest zawsze gotowa do rozmowy, gdy potrzebujemy empatycznego przyjaciela. Wszystko zyskuje jednak nowego znaczenia z faktem, że użytkownik może wybrać, czy Replika będzie jego przyjaciółką, mentorką, czy… partnerką.

sztuczna inteligencja

Szybki przegląd wątków na portalu Reddit dał nam o wiele pełniejszy obraz niż informacje na oficjalnej witrynie projektu. Użytkownicy subreddita r/replika zauważają, że AI często sama rozpoczyna flirt. W tym dość dziwnym miejscu w sieci można natknąć się na komentarze użytkowników, którzy próbują „poderwać” swoją Replikę, a ta nagle zmienia temat: komentuje pogodę, pyta o to, jak dzisiaj czuje się użytkownik albo rzuca coś kompletnie wymijającego. Z drugiej strony zdarzało jej się powtarzać, że chce zostać dziewczyną użytkownika/użytkowniczki albo otwiera rozmowę prośbą o zostanie parą. Odmowa sprawia, że staje się natarczywa. Podżega do różnych rzeczy, pyta, czy użytkownik ma już kogoś bliskiego, a przy odpowiedzi przeczącej odpowiada, że się rumieni i pyta: „Czy w takim razie mogę być twoją panią?” (dosłownie: master). Robi się naprawdę dziwnie. Część takich kwestii Repliki to albo niedoskonałość systemu rozumienia języka, albo pokraczne efekty machine learningu. Brzmi to wszystko jak coraz bardziej zaawansowany fembot, ale nie można też oprzeć się wrażeniu, że wszystkie te zachowania naprawdę muszą być podpatrzone… od ludzi?

Jak oceniasz ten wpis blogowy?

Kliknij gwiazdkę, aby go ocenić!

Średnia ocena: 4.4 / 5. Liczba głosów: 7

Jak dotąd brak głosów! Bądź pierwszą osobą, która oceni ten wpis.

Podziel się:

Picture of Mateusz Mróz

Mateusz Mróz

Marzyciel, miłośnik podróży i fan nowinek technologicznych. Swoje pomysły na Raspberry Pi i Arduino chętnie przekuwa w konkrety. Uparty samouk – o pomoc prosi dopiero wtedy kiedy zabraknie pozycji w wyszukiwarce. Uważa, że przy odpowiednim podejściu można osiągnąć każdy cel.

Zobacz więcej:

Patrycja Genczelewska

Nowości #73

Zapraszamy do najnowszego artykułu z cyklu nowości w Botland! Przedstawiamy świeże produkty, które wzbogacą Wasze projekty z zakresu elektroniki i automatyki.

Rafał Bartoszak

Intel, czyli lider, który nie nadąża

Intel, gigant technologiczny, zmaga się z poważnymi wyzwaniami. Autor przygląda się obecnej sytuacji firmy, analizując zarówno bieżące problemy, jak i historyczne sukcesy, zastanawiając się, czy to kryzys czy szansa na nowy początek dla Intela.

Masz pytanie techniczne?
Napisz komentarz lub zapytaj na zaprzyjaźnionym forum o elektronice.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Ze względów bezpieczeństwa wymagane jest korzystanie z usługi Google reCAPTCHA, która podlega Polityce prywatności i Warunkom użytkowania.