Test Turinga powraca. Nigdy nie możesz być pewny, czyli efekt Elizy

Share on facebook
Share on twitter
Share on linkedin
Czas czytania: 5 min.

Tendencja tworzenia skojarzeń ze znanymi już nam terminami jest bardzo silna. W symbolu plusa nie ma nic specjalnego poza matematyką, ale kojarzymy go z dodatkiem. Używanie plusa w szeroko rozumianej inżynierii społecznej czy marketingu jako bonusa wiąże się poniekąd z efektem Elizy.

Na blogu pisaliśmy już dla Was o teście Turinga. Pojawiła się tam ELIZA – słynny program Josepha Weizenbauma, który symulował psychoterapeutę. Jest to stary chatbot, można rzec nawet, że wiekowy, bo z 1966 roku. Nasz program powtarzał wypowiedzi pacjenta jako pytania. Zakładał bardzo proste działanie – rozpoznawał wzory i zastępował słowa kluczowe konkretnymi frazami, które zostały uprzednio dodane. Było to na tyle przekonujące, że pojawiło się wiele anegdot o ludziach, którzy emocjonalnie zaangażowali się w pracę z ELIZĄ. Z czego to wynikało?

Nie szukaj sensu na siłę

W zręcznie skonstruowanym chatbocie kryje się pułapka. Wynika to ze wspomnianej tendencji ludzi do przywiązywania do słów znaczeń, których komputer wcale tam nie umieścił. Chatbot z 1966 roku nie szukał ich w procesie uczenia maszynowego, ani nikt nie zrobił tego za niego w procesie tworzenia. Podobne zjawisko w kontekście obrazów – pareidolia – pojawia się nawet w publikacji Wydawnictwa Lekarskiego PZWL Psychiatria: podręcznik dla studentów medycyny. Szersze określenie znane jako apofenia pojawiło się już w 1958 roku w kontekście poważniejszych zaburzeń.

Powyżej twarz na kasowniku komunikacji miejskiej Trójmiasta. A z prawej – kobieta, łódź podwodna? A może wieloryb?

Apofenia bawi, a nawet pomaga

Ale bez obaw! Artykuł Being Amused by Apophenia z 2019 roku zamieszczony na blogu Psychology Today śpieszy z wyjaśnieniem, że błąd poznawczy i błędne rozumowanie to cecha każdego z nas i przeważnie nie ma nic wspólnego z chorobą. Doświadczyliście jej najprawdopodobniej w niejeden szewski poniedziałek i my też. Budzik nas nie obudził. Ekspres do kawy się zepsuł. Akumulator zamarzł do szpiku ogniw. Nie ma gdzie zaparkować. Wniosek? To muszą być jakieś mroczne siły! Sprawa niby nienaturalna, a całkiem naturalna, prawda? Tak nam po prostu wygodniej. Być może wszystkim, co się przeciw nam sprzysięgło, byliśmy my sami oglądający seriale do późnych godzin nocnych, przez co padliśmy jak kawki zapominając włączyć alarmu w telefonie – wówczas zdążylibyśmy uporać się ze wszystkim, i to z zapasem czasu. Wszystko to fenomen tworzenia wzorów z czegoś, co jest wewnętrznym hałasem.

Tak właśnie jest z odbiorem przekonujących chatbotów.

Sztuczna inteligencja i dlaczego to tak ważne

Psychologia to nauka naprawdę szeroka. Tak zróżnicowana, że niektórzy odmawiają jej nawet bycia nauką. Opiera się bowiem na wielu wskaźnikach, których wymierność zdaje się czasami pozostawiać wiele do życzenia. Moglibyśmy oczywiście zagłębić się w metodologię i próbować obalić spór, by w końcu zadecydować. Moglibyśmy też wskazać jasne granice między psychologią społeczną a kliniczną. Dlaczego zatem wybraliśmy jedną grupę zjawisk spośród setek, jeśli nie tysięcy, terminów w psychologii?

Tworzenie spontanicznych skojarzeń przez Czytelników to zjawisko działające wspaniale dla tworzących treści. Wolne i swobodne myśli uatrakcyjniają „za nas” czytany tekst, oglądany film czy fabułę prezentowaną przez gry komputerowe. Jednak stanowiło ono także ważny punkt w tworzeniu czegoś, co dziś znamy pod mianem sztuczna inteligencja. Nie da się jej bowiem stworzyć bez lepszego zrozumienia procesów poznawczych. Był to szczególny problem kognitywistyczny dostrzeżony w środowiskach cyfrowych, w których efekt Elizy powoduje, że interakcje pozwalają przypuszczać, że system jest bardziej inteligentny, niż jest. Wydaje się, że zdarzenia odzwierciedlają większą przyczynowość i sprawczość niż w rzeczywistości.

Jak myśli chatbot

Efekt Elizy w informatyce, a raczej w tym, co prezentują przeciętnemu odbiorcy jej osiągnięcia, odnosi się głównie do wrażliwości na czytanie i znajdowania o wiele większej informacji, niż jest to uzasadnione ciągami symboli. Lepiej przybliży to błahy przykład podany przez amerykańskiego pisarza Douglasa Hofstadtera. Automatyczna kasjerka albo biletomat na końcu transakcji wyświetla słowa „dziękuję”. Przypadkowy obserwator myśli, że maszyna faktycznie wyraża wdzięczność; jednak drukuje ona tylko zaprogramowany ciąg symboli.

Zobaczmy, jak to wyglądało w przypadku działania z prawdziwą, pierwotną ELIZĄ:

Human: Well, my boyfriend made me come here. - Mój chłopak namówił mnie do przyjścia.

ELIZA: Your boyfriend made you come here? - Twój chłopak namówił cię do przyjścia?

Human: He says I'm depressed much of the time. - Mówi, że mam depresję.

ELIZA: I am sorry to hear you are depressed. - Przykro mi słyszeć, że masz depresję.

Human: It's true. I'm unhappy. - To prawda. Czuję się nieszczęśliwa.

ELIZA: Do you think coming here will help you not to be unhappy? - Sądzisz, że przyjście tutaj pomoże ci przestać czuć się nieszczęśliwą?

Wnioski

Być może zastanawia Was nieporadne gramatycznie tłumaczenie ostatniej frazy: „przestać czuć się nieszczęśliwą”, to jest takie, ponieważ staraliśmy się oddać w języku polskim sposób odpowiadania ELIZY. Program nie tylko powtarza wypowiedzi człowieka w formie pytań, ale wprost korzysta z podanych przez niego kluczowych fraz.

Oryginalna rozmowa była o wiele dłuższa. Co ciekawe, jej temat zaczął zbiegać na ojca pacjentki, którego wskazała jako osobę toksyczną, a jej zwieńczeniem był wniosek ELIZY:

ELIZA: What else comes to mind when you think of your father? - Co jeszcze przychodzi ci na myśl, gdy myślisz o swoim ojcu?

Human: Bullies. - Tyrani.

ELIZA: Does that have anything to do with the fact that your boyfriend made you come here? - czy ma to związek z tym, że twój chłopak namówił cię do przyjścia?

Chatbot zatoczył koło do pierwszego wątku, który otworzył rozmowę. W tym przypadku kluczowe jest, że człowiek nie wiedział, że ma do czynienia z maszyną. Efekt zdaje się słabnąć, gdy mamy tego świadomość. Wiąże się to także ze wspomnianym testem Turinga, w którego przebiegu ważne jest, aby fakt rozmawia z chatbotem utrzymać przed testerem w tajemnicy. Asocjacje i skojarzenia Elizy mogą być w tym przypadku trafne, ponieważ przymus skojarzyła z byciem tyranem. Wprawnemu obserwatorowi, albo po prostu przy dłuższej interakcji, może to przypominać wróżbę. To znany schemat, w którym wróżbici lub twórcy horoskopów rozpoznają intencje klientów lub czytelników, a ich predykcje zmierzają w kierunku spełniania ich oczekiwań.

Skutki pożądane, skutki niepożądane, czyli personifikacja

Choć zaprojektowany ściśle jako mechanizm wspomagający „rozmowę w języku naturalnym” z komputerem, skrypt ELIZA DOCTOR okazał się zaskakująco skuteczny w wzbudzaniu reakcji emocjonalnych. W trakcie interakcji z programem zaczęli oni przypisywać rozumienie i motywację do jego wyników. Weizenbaum napisał później, że nie zdawał sobie sprawy z tego, jak krótkie ekspozycje na stosunkowo prosty program komputerowy mogą wywołać u całkiem normalnych osób względnie silne urojenia. W rzeczy samej kod ELIZY nie został zaprojektowany po to, aby wywołać taką reakcję. Na podstawie obserwacji naukowcy odkryli, że użytkownicy nieświadomie zakładali, że pytania ELIZY implikują zainteresowanie i emocjonalne zaangażowanie w omawiane tematy nawet jeśli wiedzieli, że ELIZA nie symuluje emocji! Następuje personifikacja – nadawanie cech ludzkich.

Uczenie maszynowe i jego możliwości

Wiemy już, co potrafią wywoływać w ludziach interakcja z chatbotem. Pomińmy na razie płynące z tego niebezpieczeństwa, ponieważ zagrożenia sztucznej inteligencji to temat na inny artykuł. Ważne jest tutaj coś, co nazwalibyśmy sprzężeniem zwrotnym albo symbiozą. Czego natomiast program potrafi nauczyć się od nas?

Programowanie neurolingwistyczne (ang. NLP, Neuro-linguistic programming) to specyficzne podejście do komunikacji. Jego twórcy twierdzą, że istnieje powiązanie pomiędzy procesami neurologicznymi (człon neuro), językiem (linguistic) a wzorami zachowania, które można wyuczyć (programming). Środowisko naukowe wciąż jednak dyskredytuje NLP prezentując pogląd, że to pseudonauka.

Owa głębokość uczenia polega na tym, że algorytmy uczenia się są ułożone według rosnącej trudności i abstrakcji, aż do osiągnięcia zadowalającego poziomu. Pytanie jednak, kiedy osiągamy ten poziom? Systemy kognitywne człowieka uczą się cały czas, więc deep learning też może działać teoretycznie wiecznie. Przy rosnącej złożoności algorytmów efekt Eliza opisuje więc każdą sytuację, w której użytkownicy postrzegają systemy komputerowe jako posiadające „nieodłączne cechy i możliwości, których oprogramowanie kontrolujące (wyjście) nie może osiągnąć” lub „zakładają, że odzwierciedlają większą przyczynę niż w rzeczywistości”. Zarówno w wyspecjalizowanej, jak i typowej formie efekt Eliza jest zauważalny nawet wtedy, gdy użytkownicy systemu są świadomi charakteru systemu. Z psychologicznego punktu widzenia efekt Eliza jest rezultatem subtelnego dysonansu poznawczego pomiędzy świadomością ograniczeń programowych użytkownika a jego zachowaniem wobec wyjścia programu – tyle naukowo.

A pragmatycznie? Odkrycie efektu ELIZA było niezwykle ważnym wydarzeniem w sztucznej inteligencji, demonstrującym zasadę wykorzystywania inżynierii społecznej, a nie programowania w celu zdania testu Turinga i pożegnania się z tematem AI na dobre.

Podziel się:

Share on facebook
Share on linkedin
Share on twitter
Oskar Pacelt

Oskar Pacelt

Wierzy, że udany tekst jest jak list wysłany w przyszłość. W życiu najbardziej interesuje go prawda, pozostałych zainteresowań zliczyć nie sposób. Kocha pływać. Zajmuje się korektą tekstów (czyt. uprzykrzaniem życia współpracownikom), tłumaczeniami i ciekawostkami ze świata technologii.

Zobacz więcej:

Ciekawostki
Oskar Pacelt

Nowości w Botland #31

Nowości trafiają na bloga Botland co dwa tygodnie, punktualnie, w co drugi piątek. Każdego dnia dokładamy starań, aby oferta poszerzała się o coś dla każdego. Co w odcinku #31?

Dodaj komentarz