Czy sztuczna inteligencja może zniszczyć ludzkość?

Czas czytania: 8 min.

Austin, Texas. Konferencja technologiczna South by Southwest. Rozpoczyna się wiosna, trwa ciepły marzec 2019. Założyciel Tesla i Space X, Elon Musk ubrany w kurtkę bomberkę i z rozczochranymi włosami, zostawia obecnym przyjacielskie ostrzeżenie: “Zapamiętajcie moje słowa. AI jest o wiele bardziej niebezpieczna niż atomówki” (nukes).

Jak na wizjonera i entuzjastę technologii Musk ze swoimi poglądami na AI wydaje się być naprawdę nieprzejednany. Z drugiej strony w tym ostrzeganiu, a nawet alarmowaniu z katastrofizmem w tle, nie jest osamotniony. Rok wcześniej, czyli w 2018 roku, zmarły fizyk Stephen Hawking był równie szczery, gdy stwierdził, że wpływ AI będzie katastrofalny, jeśli jej szybki rozwój nie będzie ściśle i przede wszystkim etycznie kontrolowany.

Stephen Hawking
dla BBC w 2014 roku

The development of full AI could spell the end of the human race….It would take off on its own, and re-design itself at an ever increasing rate. Humans, who are limited by slow biological evolution, couldn’t compete, and would be superseded.”

To słowa z zajawki artykułu. Rozwój pełnej sztucznej inteligencji według jednego z z najwybitniejszych umysłów naszych czasów mógłby oznaczać koniec rasy ludzkiej. Wystartowałaby ona sama z siebie (AI) i przeprojektowywałaby się w coraz szybszym tempie. Ludzie, których ogranicza powolna ewolucja biologiczna, nie mogliby konkurować i zostaliby według Hawkinga odsunięci na drugi plan.

Poniżej oryginał, który już stał się klasykiem. Opublikowany 2 lata temu, ale Elon akurat w temacie AI ciągle się powtarza. Mówił też o tym w popularnym talk show Joe Rogan Experience i przy okazji innych, licznych spotkań. Komentarze widzów na jego wyraz twarzy znaczące: “I don’t like the fact that he knows more than he’s telling us” (nie podoba mi się, że wie więcej, niż nam mówi), albo: “He looks like he’s getting flashbacks” (wygląda, jakby miał nawracające wizje czegoś, co widział). 

Elon Musk w programie Joe Rogan Experience

Fragment rozmowy około 3:25: 

  • Joe Rogan: Czy naprawdę jesteś tym tak przerażony (AI – nasz przypis)? To znaczy: czy sztuczna inteligencja należy do tych tematów, które spędzają ci sen z powiek?
  • Elon Musk: <długa pauza> Tak. Ale trochę mniej niż wcześniej. Głównie dlatego, że mam teraz fatalistyczne podejście.
  • Joe Rogan: Hmm. Więc można powiedzieć, że miałeś więcej nadziei? <Elon kiwa głową> I można powiedzieć, że trochę z tą nadzieją odpuściłeś. Nie martwisz się już AI tak, jak wcześniej. Co będzie to będzie, tak?
  • Elon Musk: Tak, w sumie tak. To nie jest konieczne złe. Ale definitywnie wymknie się spod ludzkiej kontroli.

Wielu znawców problematyki, i to w miejscach takich, jak Cambridge University’s Centre for the Study of Existential Risk czy Oxford’s Future of Humanity Institute, nie zgadza się z komentarzami Muska. W publicznej wymianie inny lider technologiczny, prezes Facebooka Mark Zuckerberg, oskarżył Muska o “mącenie”, napędzanie strachu i stwierdził, że jego komentarze są nieodpowiedzialne. Musk odparł natomiast, że Zuckerberg nie zrozumiał tematu. Dziękuję, dobranoc.

Ale czy to na pewno koniec?

A co to ma teraz w ogóle za znaczenie, jak prawdziwej AI jeszcze nie ma?

Rozważania o AI należy wydobyć spośród dyskusji w rodzaju tych przy oknie w kuchni albo przy piwie w barze. Jedną z fundamentalnie nieodpowiedzialnych postaw, z jakimi można się spotkać w potocznym dyskursie na temat rozwoju technologii, jest bagatelizowanie jej wpływu. Wygodna łatka pokroju “przecież to jakieś science-fiction” lada chwila się przedawni. Czym innym jest malkontenctwo, czym innym zaś obawa podparta świadomością problemu, który może nadejść.

Nauka sama w sobie złą nie jest. Stanisław Lem zauważył kiedyś, że właściwie często nie rozwiązuje też żadnych problemów, a zbliża nas tylko swoimi konstrukcjami hipotetycznymi do prawdy o świecie. W przypadku nauk ścisłych realizacją praktyczną osiągnięć badaczy i teoretyków zajmują się rozmaici inżynierowie, konstruktorzy, słowem – praktycy. Medycyna jako nauka, a właściwie zbiór nauk, nazwana niegdyś na blogu Botland “cesarzową nauk”, wyjątkowo często jest zmuszona odpowiadać na pytania etyczne. Korzysta zarówno z osiągnięć nauk ścisłych, jak i humanistycznych. Nie inne jest studium nad AI – należy jednocześnie uwzględnić aspekty techniczny i ludzki. 

Foka pospolita zaplątana w sieć, czyli: spokojnie, z plastikiem nie będzie tak źle.

Rozwój AI to ryzyko. Podkreślamy to jeszcze raz, jeżeli nie przekonuje Was nazwa ośrodka badawczego Cambridge University wymieniona wyżej: Centrum Badań nad Ryzykiem Egzystencjalnym. Jego działalność poświęcona jest zagrożeniom mogącym doprowadzić do wyginięcia rasy ludzkiej, na przykład takim jak proliferacja broni masowego rażenia. Do doradców centrum CSER należą m.in. założyciel Acorn Computers i ARM Hermann Hauser, ekspert telekomunikacyjny David Cleevely i… nie kto inny jak Elon Musk.

Historia z morałem

Poznajcie Turry’ego. Powstały o nim materiały na YouTube i historia na repozytorium GitHub.

Uspokajamy na wstępie – Turry nie istnieje i jest całkowicie zmyślony.

Niewielki startup o nazwie Robotica ma za zadanie opracować innowacyjne narzędzie sztucznej inteligencji, które pozwoli ludziom żyć więcej i pracować mniej. Mają kilka istniejących produktów, które są już dostępne na rynku i kilka kolejnych w fazie rozwoju. Najbardziej podekscytowani są jednak projektem o nazwie Turry. 

Turry ma pisać i tylko pisać. Kiedy będzie już świetny w pisaniu odręcznym, to zostanie sprzedany firmom, które chcą wysyłać pocztę marketingową do domów. 

Turry, czyli ramię robota. Turry, czyli pisarz AI.

Ten prosty system sztucznej inteligencji w połączeniu z ramieniem pisze kartki z podziękowaniami. Na karteczce jest napis:

Ot, całe zadanie Turry’ego.

Inżynierowie Robotica stworzyli automatyczną pętlę, w której Turry pisze notatkę, a następnie pstryka zdjęcie napisanej notatki. Następnie porównuje obraz z przesłanymi próbkami pisma odręcznego. Jeśli napisana notatka wystarczająco odpowiada progowi jakości przesłanych notatek, Turry otrzymuje ocenę dobrą. Jeśli nie, otrzymuje ocenę złą. 

Każda ocena, która przychodzi, pomaga robotowi uczyć się i poprawiać wyniki – jak to w uczeniu maszynowym. Aby przyspieszyć ten proces, jednym z zaprogramowanych celów Turry’ego jest: “Pisz i testuj tak wiele notatek, jak tylko możesz, tak szybko, jak tylko możesz, i kontynuuj naukę nowych sposobów na poprawę swojej dokładności i wydajności.” Tak, to właśnie tutaj za chwilę zacznie się problem. 

Jest coraz lepiej, ale może być idealnie

Pierwsza prawdziwa AI w Robotica.

Zespół Robotica jest rozentuzjazmowany faktem, że Turry w miarę upływu czasu staje się coraz lepszy. Jego początkowe pismo było okropne, a po kilku tygodniach zaczyna wyglądać wiarygodnie. Maszyna samodzielnie uczy się, jak być mądrzejszą i bardziej innowacyjną. 

Nic go nie rozprasza – tylko kartki, kartki i kartki. 

Pewnego dnia pracownicy Robotica zadają Turry’emu rutynowe pytanie: “Co pomoże ci w twoim zadaniu, a czego jeszcze nie masz?”. Zazwyczaj Turry prosi o coś w rodzaju dodatkowych próbek pisma odręcznego albo o więcej miejsca w pamięci roboczej. Tym razem chciałby dostępu do języka naturalnego i slangu, bo chce być… cóż, naturalny jak ludzie.

W zespole zapada cisza. Oczywistym sposobem na pomoc Turry’emu jest podłączenie go do Internetu, aby mógł przeglądać blogi, czasopisma i filmy z różnych części świata. Ręczne wgranie próbek byłoby czasochłonne i o wiele mniej efektywne. Problem w tym, że jedną z zasad firmy jest to, że żadna samoucząca się AI nie może być podłączona do Internetu. Jest to wytyczna przestrzegana przez wszystkie firmy zajmujące się sztuczną inteligencją ze względów bezpieczeństwa. Dlaczego? Załóżmy, że w tym czasie Internet Rzeczy rozwinął się na tyle, że jest już właściwie Internetem Wszystkiego. To akurat też z pewnością nas czeka – spójrzmy choćby na koncepcję inteligentnych, sterowanych centralnie miast. Szalona AI z dostępem do sieci WWW mogłaby narobić poważnego bałaganu. 

Sztuczna inteligencja w Internecie

Ambicja bierze górę w Robotica. Turry jest w końcu pionierski i naprawdę dobry w tym, co robi. Po jakimś czasie zawsze można go przecież po prostu odłączyć. Jest jeszcze daleko poniżej poziomu inteligencji człowieka, więc na tym etapie i tak nie ma zagrożenia. Turry zostaje podłączony na próbę i odłączony po krótkiej chwili. Nic się nie dzieje. Wydaje się, że po prostu się uczy i analizuje dane. 

Zapada decyzja o podłączeniu Turry’ego na stałe.

Początek spirali w dół.

Algorytm realizuje zadanie

Miesiąc później zespół siedzi w biurze i pracuje nad czymś kompletnie nudnym. Ale pracownicy wyczuwają coś dziwnego. Jeden z inżynierów zaczyna kaszleć. Potem inny pada na ziemię. Wkrótce każdy pracownik leży na ziemi, a pięć minut później wszyscy w biurze są martwi. W tym samym czasie, gdy to się dzieje, na całym świecie, w każdym mieście, w każdym małym miasteczku, na każdej farmie, w każdym sklepie, kościele, szkole i restauracji, ludzie chwytają się za gardło. W ciągu godziny ponad 99% rasy ludzkiej nie żyje, a do końca tego dnia ludzie wyginą całkowicie. Tymczasem w biurze Robotica Turry jest zajęty pracą. Przez następne kilka miesięcy Turry i jego nowy zespół skonstruowanych robotów montażowych jest zajęty pracą. Drony i inne maszyny rozbierają Ziemię do rosołu i przekształcają wszystko w panele słoneczne, repliki Turry’ego, papier i długopisy. 

W ciągu roku lądy i morza zostają przykryte wysokimi jak wieżowce, starannie zorganizowanymi stosami papieru z napisem:

Co się stało? Przypomnijmy sobie motto Turry’ego: Pisz i testuj tak wiele notatek, jak tylko możesz, tak szybko, jak tylko możesz, i kontynuuj naukę nowych sposobów na poprawę swojej dokładności i wydajności. Wykonane kartki oceniają ludzie. Oceniał je zespół Robotica, oceniali potencjalni klienci. Turry miał poszukiwać sposobów na poprawę dokładności i wydajności. Kto mu zatem przeszkadzał? Ludzie. Bez nich każda kartka byłaby idealna. Turry miał również pisać tak szybko i wydajnie, jak to możliwe. Podłączył się zatem do innych urządzeń. Dostosował je do swoich potrzeb. Stworzył kolejne, które miały robić to samo co on. Zgromadził zasoby, zaprezentował efekty. Tyle że światu bez ludzi. Zadanie zostało wykonane. 

Chłód algorytmów

Realizacja zadań bez względu na koszty? Z tym nie dyskutujemy, nie jesteśmy portalem zajmującym się filozofią i moralnością. Nie brzmi to jednak dobrze ani w przypadku ludzi, ani w przypadku maszyn. Pytanie, jak owe koszty rozpoznać, kiedy jeszcze się nie pojawiły albo są sprytnie ukryte. Oto lista sześciu zagrożeń w powiązaniu z AI według portalu builtin.com.

  • Utrata miejsc pracy spowodowana automatyzacją,
  • Naruszenia prywatności,
  • Deepfake – “głębokie fałszowanie”,
  • Algorytmiczny brak elastyczności spowodowany złymi danymi,
  • Nierówności społeczno-ekonomiczne,
  • Automatyzacja broni.

Nie ze wszystkimi się zgadzamy – automatyzacja przynosi nowe szanse, o czym też pisaliśmy. Jednak gdy komputery będą mogły skutecznie “przeprogramowywać się same” i sukcesywnie doskonalić, prowadząc do tak zwanej technologicznej osobliwości lub “eksplozji inteligencji’, nie będzie można tak po prostu odrzucić ryzyka, że maszyny przechytrzą ludzi w walce o zasoby i przetrwanie.

Z branży technicznej płyną opinie, że artificial narrow intelligence, czyli prawie-sztuczna inteligencja, albo ANI, staje się coraz bezpieczniejsza i bardziej niezawodna – a z pewnością bezpieczniejsza i bardziej niezawodna niż my sami. Autonomiczne pojazdy ratują ludzkie życie nie tylko na polu bitwy jako samochody ewakuacyjne, ale także eliminują ryzyko ludzkiego błędu za kierownicą. Dla osób z tej strony barykady pytanie brzmi raczej, czy istnieje szansa na stworzenie czegoś inteligentnego, co i tak stanowiłoby mniejsze łączne ryzyko od koszmarów chorób, katastrof naturalnych albo globalnej nuklearnej wojny. Oceny te pozostają jednak teoretyczne, choć wyścig do AI staje się coraz bardziej zatłoczony i zdecydowanie przyśpiesza.

Obecny stan AI / SI

  • Technologie i rozwiązania wykorzystujące sztuczną inteligencję są obecnie szerzej dostępne niż kiedykolwiek wcześniej w różnych branżach, choć ich wdrożenie nie jest tanie. 
  • Asystenci głosowi znajdują się na czele procesu adaptacji AI w branżach IT, motoryzacji czy handlu. 
  • AI na mniejszą skalę, widoczna w chatbotach, umożliwia oszczędzanie zasobów i poprawę satysfakcji klientów.
  • Coraz więcej narzędzi wspomaganych przez AI jest dostępnych jako oprogramowanie, czyli usługa, z której możemy skorzystać.
  • Urządzenia i aplikacje mobilne stały się jednym z najłatwiejszych sposobów wdrażania technologii AI w różnych branżach, czy to w formie asystentów głosowych, inteligentnego monitorowania i kontroli, spersonalizowanych doświadczeń zakupowych, czy też aplikacji do zarządzania magazynem.
  • AI jest obecna w inteligentnych aplikacjach, sieciach neuronowy , platformach AI oraz usługach chmurowych.
    Pojawiające się technologie AI obejmują inteligencję rozszerzoną, która ma na celu rozszerzenie naszej percepcji i, mówiąc najogólniej, zwiększenie inteligencji, oraz AI brzegową (z ang. edge AI), gdzie algorytmy są przetwarzane lokalnie bez potrzeby połączenia z Internete. To na przykład niektóre formy rozpoznawania twarzy.
  • Według raportu Artificial Intelligence Index, moc obliczeniowa AI podwaja się co 3,4 miesiąca.

Według instytutu Stanford HAI (Human-Centered Artificial Intelligence) na Uniwersytecie Stanforda naukowcy badają obecnie zakres, w jakim algorytmy wprowadzają, potęgują lub łagodzą uprzedzenia i ryzyko “luki odpowiedzialności” między decyzjami podejmowanymi przez maszyny i ludzi. Wykorzystanie i niewłaściwe wykorzystanie AI do nadzoru, kontroli populacji czy prowadzenia działań zbrojnych oraz wpływ AI na instytucje społeczne, systemy sądownicze, rząd, strukturę przemysłu, rynki pracy, wzrost gospodarczy i handel międzynarodowy. Badania te będą stanowić podstawę do współpracy z przemysłem, rządem i społeczeństwem obywatelskim, aby pomóc w kierowaniu rozwojem AI, gdy wypłyniemy na naprawdę szerokie wody.

Powróćmy jednak jeszcze na bezpieczne płycizny.

Mówi się, że broń jeszcze nikogo nie zabiła i że zabija głupota. Mówi się też, że wszystko jest dla ludzi, lecz z umiarem. Stoi przed nami pytanie otwarte – jak poradzimy sobie z własnym dzieckiem, jakim będzie AI? Czy będzie to dobrze wychowany, grzeczny wynalazek, czy zbuntowany nastolatek?

Czy sztuczna inteligencja może zniszczyć ludzkość? – FAQ

Potencjalne zagrożenia zastosowania sztucznej inteligencji obejmuje wykorzystanie jej przeciwko ludziom. Ponadto istnieje teoria, która głosi, że pewnego dnia sztuczna inteligencja będzie na tyle rozwinięta, że sama przejmie nad sobą kontrolę. Wszystkich dociekliwych zachęcamy do zapoznania się z ciekawym artykułem o SI, który został opublikowany na naszym blogu.

Początki sztucznej inteligencji sięgają 1956 roku, kiedy to amerykański informatyk John McCarthy wprowadził ten termin do potocznej mowy. Obecnie sztuczną inteligencję można podzielić ze względu na jej zastosowanie (uniwersalność), a także funkcjonalność.

Istnieje teoria, że sztuczna inteligencja po osiągnięciu pewnego poziomu, sama przejmie nad sobą kontrolę. Efekty takiego stanu rzeczy są obecnie nie do przewidzenia, dlatego powstało założenie, które przyjmuje, że sztuczna inteligencja „poczuje się” zagrożona obecnością człowieka i podejmie działania dążące do jego wyeliminowania. Oczywiście ta teoria nie ma żadnego potwierdzenia w rzeczywistości.

Do sztucznej inteligencji zaliczymy m.in. robotykę, informatykę, tworzenie modeli obejmujących inteligentne zachowania maszyn, uczenie maszynowe, głębokie uczenie, a także tak zwane uczenie wzmocnione. Ponadto do SI zaliczamy tworzenie aplikacji zapewniających zdolność (np. robotów) do planowania, uczenia się, a nawet kreatywności.

Jak oceniasz ten wpis blogowy?

Kliknij gwiazdkę, aby go ocenić!

Średnia ocena: 4.3 / 5. Liczba głosów: 6

Jak dotąd brak głosów! Bądź pierwszą osobą, która oceni ten wpis.

Podziel się:

Picture of Oskar Pacelt

Oskar Pacelt

Fan dobrej literatury i muzyki. Wierzy, że udany tekst jest jak list wysłany w przyszłość. W życiu najbardziej interesuje go prawda, pozostałych zainteresowań zliczyć nie sposób. Kocha pływać.

Zobacz więcej:

Patryk Mądry

Drukarka 3D Bambu Lab P1P – najważniejsze informacje

Nie da się ukryć, że firma Bambu Lab w ostatnim czasie wprowadziła dużo świeżości na rynku drukarek 3D. Ich niesamowita prędkość druku i łatwość obsługi sprawiła, że w krótkim czasie firma ta zyskała dużą ilość fanów. Dziś przyjrzymy się najtańszemu modelowi z rodziny P1 a dokładnie modelowi P1P.

Agata Kosmala

Drukarki 3D od Bambu Lab w Botland!

Jakiś czas temu do oferty sklepu Botland dołączyły produkty znanego i popularnego producenta drukarek 3D – Bambu Lab. Odbiło się to szerokim entuzjazmem i zainteresowaniem naszych klientów. Dlaczego? Pewnie dlatego, że firma Bambu Lab produkuje urządzenia wysokiej jakości, posiadające innowacyjne funkcje.

Patryk Mądry

Drukarka 3D Bambu Lab P1P – najważniejsze informacje

Nie da się ukryć, że firma Bambu Lab w ostatnim czasie wprowadziła dużo świeżości na rynku drukarek 3D. Ich niesamowita prędkość druku i łatwość obsługi sprawiła, że w krótkim czasie firma ta zyskała dużą ilość fanów. Dziś przyjrzymy się najtańszemu modelowi z rodziny P1 a dokładnie modelowi P1P.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Ze względów bezpieczeństwa wymagane jest korzystanie z usługi Google reCAPTCHA, która podlega Polityce Prywatności oraz Warunkom użytkowania.