Sztuczna inteligencja, a przyszłość ludzkości

Sztuczna inteligencja (AI) to hasło odmieniane przez wszystkie przypadki od co najmniej połowy XX wieku. Początkowo o AI pisali pisarze fantaści, ewentualnie futurolodzy. Potem na temat algorytmów sztucznej inteligencji zaczęli rozwodzić się matematycy, a w ślad za nimi poszli informatycy. Teraz o uczeniu maszynowym (ML) mówią nie tylko programiści, ale także menedżerowie czy spece od PR. Co sprawiło, że “myślące komputery” zawładnęły naszą wyobraźnią, a potem biznesplanami? 

Systemy korzystające z algorytmów sztucznej inteligencji są coraz popularniejsze w wielu gałęziach przemysłu, ale też w naszym codziennym życiu. Postęp w tej dziedzinie jest bardzo szybki i to, co jeszcze 10 czy 20 lat temu wydawało się wyłącznie fantastyką naukową, jest obecnie rutynowym elementem skryptów analizujących zdjęcia czy przeglądających nasze e-maile… no właśnie – czy nie wydaje się to trochę za daleko idące? Obecność AI wyraźnie zmienia rzeczywistość, w której żyjemy, a większość analityków zgadza się, że to dopiero początek.

Czym jest sztuczna inteligencja?

To zależy od tego, kogo o to zapytać. W latach pięćdziesiątych ojcowie tego pola badań – Minsky i McCarthy – opisali sztuczną inteligencję jako każde zadanie wykonywane przez program lub maszynę, które, gdyby było wykonywane przez człowieka, wymagałoby od niego użycia inteligencji. Jest to oczywiście dość ogólna definicja, która dotyczyć może wielu systemów. Co więc naprawdę jest sztuczną inteligencją, a co nie?

Systemy AI zazwyczaj wykazują przynajmniej niektóre z następujących zachowań związanych z ludzką inteligencją: planowanie, uczenie się, rozumowanie, rozwiązywanie problemów, reprezentację wiedzy, percepcję, ruch i manipulację oraz, w mniejszym stopniu, inteligencję społeczną i kreatywność. Ta definicja pozwala lepiej zarysować problematykę systemów sztucznej inteligencji.

Wykorzystywane obecnie systemy sztucznej inteligencji są niemalże wyłącznie systemami tzw. wąskiej sztucznej inteligencji (lub słabej sztucznej inteligencji), ponieważ są zaprojektowane do wykonywania bardzo wąskiego zakresu zadań, np. tylko do rozpoznawania twarzy, tylko wyszukiwania danych w Internecie lub tylko do samodzielnego prowadzenia samochodu. Długoterminowym celem wielu badaczy jest stworzenie tak zwanej ogólnej sztucznej inteligencji (AGI lub silnej AI). Podczas gdy wąska sztuczna inteligencja może przewyższać ludzi w jednej, wąskiej dziedzinie, np.w grze w szachy lub rozwiązywaniu równań, to system silnej AI przewyższa ludzi w prawie każdym zadaniu poznawczym.

Od SIRI po samochody autonomiczne – sztuczna inteligencja rozwija się bardzo szybko, zwłaszcza systemy słabej AI. Podczas gdy science fiction często przedstawia AI jako roboty o cechach podobnych do ludzkich, a więc systemy silnego Al, to jednak wokół nas najczęściej spotykamy przykłady wąskiego AI, które mogą obejmować rozmaite systemy – od algorytmów wyszukiwania Google, przez Watsona IBM, po broń czy pojazdy autonomiczne.

Aplikacje i wykorzystanie systemów AI

Tak jak opisano powyżej, na podstawowym poziomie sztuczną inteligencję można podzielić na dwa typy: wąską i ogólną AI w zależności od tego, na ile dany system jest wyspecjalizowany w wykonywaniu jakiejś czynności. Wąska sztuczna inteligencja jest tym, co widzimy dzisiaj w komputerach: inteligentne systemy, które zostały nauczone lub nauczyły się wykonywać określone zadania bez wyraźnego zaprogramowania. Ten rodzaj inteligencji jest stosowany w systemach rozpoznawania mowy czy języka naturalnego, w systemach rozpoznawania elementów na obrazie, których używa się np. w samochodach autonomicznych, w systemach rekomendacji reklam sugerujących odbiorcom produkty, które  rzeczywiście mogą im się spodobać (bazując na tym, co kupowali w przeszłości, ale także na podstawie ich aktywności np. w portalach społecznościowych). 

W przeciwieństwie do ludzi wąskie systemy sztucznej inteligencji jakkolwiek mogą się uczyć, są w stanie robić to jedynie w bardzo wąskiej, wyspecjalizowanej dziedzinie – stąd ich nazwa. Istnieje wiele zastosowań dla tego rodzaju systemów AI: interpretacja sygnałów wideo z dronów przeprowadzających inspekcje wizualne, organizowanie kalendarzy osobistych i biznesowych, odpowiadanie na proste zapytania w ramach systemów obsługi klienta, koordynacja z innymi inteligentnymi systemami w celu wykonywania zadań takich jak rezerwacja hotelu w odpowiednim czasie i miejscu, pomaganie radiologom w wykrywaniu potencjalnych guzów w obrazach rentgenowskich, oznaczanie nieodpowiednich treści w Internecie, wykrywanie zużycia wind… lista jest bardzo długa.

Ogólna sztuczna inteligencja jest rodzajem elastycznego intelektu, takiego, jaki spotykamy u ludzi. To forma inteligencji zdolna do uczenia się, jak wykonywać bardzo zróżnicowane zadania – od strzyżenia ludzi po tworzenie arkuszy kalkulacyjnych lub rozumowanie na podstawie zgromadzonego doświadczenia. Jest to rodzaj sztucznej inteligencji częściej spotykany w filmach – HAL czy Skynet, ale takie systemy nie istnieją. Eksperci AI są podzieleni w kwestii tego, jak szybko uda się je stworzyć i czy w ogóle jest to możliwe do realizacji.

Internet Rzeczy, a sztuczna inteligencja

Analitycy systemów Internetu Rzeczy (IoT) wyliczyli, że na świecie istnieje ponad 17 miliardów połączonych urządzeń, z czego ponad 7 miliardów z nich stanowi systemy Internetu Rzeczy. IoT to zbiór różnych czujników, urządzeń i innych technologii, które nie mają na celu bezpośredniej interakcji z konsumentami, tak jak telefony czy komputery. Urządzenia IoT pomagają w dostarczaniu informacji, kontroli i analizie i w lepszym połączeniu ze sobą świata urządzeń i Internetu. Wraz z pojawieniem się tanich czujników i systemów, a także energooszczędnych interfejsów bezprzewodowych, takich jak LoRa czy NB-IoT, technologia IoT rozprzestrzenia się.

W związku z tym firmy są zalewane danymi i szukają rozwiązań tego problemu w systemach sztucznej inteligencji. Ma to pomóc w zarządzaniu urządzeniami IoT, a także pozwolić uzyskać więcej informacji z danych zbieranych przez masowe systemy. Komplikacje związane z Internetem Rzeczy wiążą się ze skalą tego rodzaju systemów. Budowanie samych czujników dostępnych z poziomu inteligentnego urządzenia jest łatwe, ale tworzenie urządzeń niezawodnych, zdalnie sterowanych i aktualizowanych przez sieć, a jednocześnie bezpiecznych i opłacalnych dla producenta okazuje się znacznie bardziej skomplikowane. Tutaj w sukurs przychodzi wiele rozwiązań korzystających z systemów sztucznej inteligencji.

Rashmi Misra z Microsoftu przedstawił niedawno w jednym z podcastów, w jaki sposób AI i IoT łączą się, aby zapewnić lepszą widoczność i kontrolę nad szeroką gamą urządzeń i czujników podłączonych do Internetu. W Microsoft Rashmi kieruje zespołem, który tworzy rozwiązania IoT i sztucznej inteligencji. IoT pomaga przekształcać modele biznesowe, pozwalając firmom przejść od prostego wytwarzania produktów i usług do zapewniania klientom pożądanych rezultatów i całych ekosystemów. Firmy mogą teraz gromadzić i przekształcać dane w użyteczne i cenne informacje dzięki IoT współpracującemu z systemami sztucznej inteligencji.

Połączenie Internetu Rzeczy i sztucznej inteligencji powoduje wielkie zmiany w branży. Niezależnie od tego, czy dana firma korzysta z IoT i AI, aby angażować klientów, wdrażać agentów konwersacyjnych dla klientów, dostosowywać doświadczenia użytkowników, uzyskiwać natychmiastowe analizy lub optymalizować wydajność dzięki obserwacjom AI i prognozom, zastosowanie tego duetu tworzy unikalną dynamikę, która pozwala spółkom uzyskiwać wysoką jakość wglądu w każdą część zbieranych danych, od np. tego, na co faktycznie zwracają uwagę klienci, po to, jak pracownicy, dostawcy i partnerzy wchodzą w interakcje z różnymi elementami ekosystemu. Zamiast po prostu modelować procesy biznesowe w oprogramowaniu w sposób zbliżony do realnego świata, urządzenia IoT zapewniają systemom rzeczywisty interfejs. W dowolnym miejscu, w którym można umieścić czujnik lub urządzenie do pomiaru, interakcji lub analizy czegoś, można teraz umieścić urządzenie IoT podłączone do chmury z obsługą AI.

Przyszłość wykorzystania systemów AGI

Ankieta przeprowadzona wśród czterech grup ekspertów w latach 2012-13 przez badaczy AI Vincenta C. Müllera i Nicka Bostroma wykazała, że szanse na to, że systemy ogólnej sztucznej inteligencji powstaną pomiędzy 2040 a 2050 rokiem, wynosi około 50%, a do 2075 roku już nawet 90%. Około 30 lat po stworzeniu pierwszych systemów AGI powstać ma tak zwana „superinteligencja”, którą Bostrom definiuje jako „każdy intelekt, który znacznie przewyższa zdolności poznawcze ludzi w praktycznie wszystkich dziedzinach”.

Niektórzy eksperci AI uważają, że takie prognozy są szalenie optymistyczne, biorąc pod uwagę nasze ograniczone zrozumienie ludzkiego mózgu i uważają, że AGI jest jeszcze stulecia przed nami. Niezależnie jednak od tego, jak jest w rzeczywistości, zanim stworzymy tego rodzaju system, konieczne jest zastanowienie się nad jego bezpieczeństwem. Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates i wiele innych wielkich nazwisk w nauce i technologii wyraża swoje zaniepokojenie zagrożeniami związanymi z systemami AI w mediach i listach otwartych. Do tego grona dołącza także wielu wiodących badaczy tej dziedziny. Temat powraca za każdym razem, kiedy mówi się o szansie na stworzenie AGI.

Pomysł, że próby stworzenia silnej sztucznej inteligencji powiodą się jeszcze w tym wieku, od dawna uważany był za science fiction. Jednak dzięki ostatnim przełomowym odkryciom ​​wielu ekspertów poważnie traktuje możliwość stworzenia superinteligencji jeszcze za naszego życia. Podczas gdy niektórzy eksperci wciąż sądzą, że sztuczna inteligencja na poziomie ludzkim znajduje się stulecia od nas, większość badań nad AI prezentowanych na konferencji w Portoryko w 2015 roku wskazywało, że ​​jej wynalezienie nastąpi przed 2060 rokiem. Ponieważ ukończenie wymaganych do tego celu badań nad bezpieczeństwem może potrwać dekady, rozsądnie jest rozpocząć je teraz.

Ponieważ sztuczna inteligencja może przewyższyć inteligencją człowieka, nie mamy – póki co – narzędzi pozwalających przewidzieć jej zachowanie. Nie możemy wykorzystywać dotychczasowych osiągnięć technologicznych jako podstaw do analizy jej zachowania, ponieważ nigdy nie stworzyliśmy niczego, co mogłoby, świadomie lub nieświadomie, nas przechytrzyć. Najlepszym przykładem tego, z czym moglibyśmy się zmierzyć, może być nasza ewolucja. Ludzie kontrolują planetę nie dlatego, że są najwięksi, najsilniejsi czy najszybsi, ale dlatego, że są najmądrzejsi. Jeśli nie będziemy już najmądrzejsi, czy jesteśmy pewni, że nie stracimy kontroli nad światem?

Tymi zagadnieniami zajmuje się np. Instytut Przyszłości Życia (Future of Life Institute – FLI). Stanowisko FLI jest takie, że nasza cywilizacja będzie się rozwijać, jeśli znajdziemy równowagę między rosnącą potęgą technologii a mądrością, z jaką nią zarządzamy. W przypadku technologii AI FLI uważa, że ​​najlepszym sposobem na to nie jest hamowanie rozwoju technologii sztucznej inteligencji, ale przyspieszenie badań nad bezpieczeństwem AI.

Większość badaczy zgadza się, że sztuczna inteligencja nie przejawia ludzkich emocji, takich jak miłość czy nienawiść, w związku z czym nie ma powodu obawiać się, że stanie się ona życzliwa lub wroga człowiekowi. FLI przewiduje dwa negatywne dla ludzkości scenariusze po stworzeniu superinteligentnej AGI:

  • Sztuczna inteligencja jest zaprogramowana do robienia czegoś niszczycielskiego: broń autonomiczna to systemy sztucznej inteligencji zaprogramowane do zabijania. W rękach niewłaściwej osoby broń ta może łatwo spowodować ogromne zniszczenia. Wyścig zbrojeń może nieumyślnie doprowadzić do wojny sztucznych inteligencji, która spowoduje masowe straty po obu stronach konfliktu. Aby uniknąć zniszczenia przez wroga, broń ta byłaby niezwykle trudna do zwykłego wyłączenia. Ryzyko takie występuje nawet przy wąskiej AI, ale rośnie wraz ze wzrostem poziomu inteligencji AI i jej autonomii.
  • Sztuczna inteligencja jest zaprogramowana do robienia czegoś pożytecznego, ale rozwija destrukcyjną metodę osiągnięcia swojego celu: może się to zdarzyć, gdy nie uda nam się w pełni dopasować celów systemu AI do naszych (co jest w ogólności dosyć trudne, szczególnie przy bardziej złożonych zagadnieniach). Jeśli poprosisz autonomiczny samochód, aby zawiózł cię na lotnisko tak szybko, jak to możliwe, możesz dotrzeć tam ścigany przez policję lub nieprzytomny od przeciążeń, System nie zrobi tego, co chciałeś, ale dosłownie to, o co go poprosiłeś. Jeśli superinteligentnemu systemowi zostanie powierzone ambitne przedsięwzięcie geoinżynierii, może siać spustoszenie w naszym ekosystemie jako efekt uboczny i postrzegać ludzkie próby powstrzymania go jako zagrożenia, które należy powstrzymać.

Jak pokazują te dwa przykłady, obawą przed zaawansowaną sztuczną inteligencją nie jest jej wrogość, ale kompetencja. Ogólna sztuczna inteligencja będzie wyjątkowo dobra w osiąganiu swoich celów, a jeśli te cele nie będą zgodne z naszymi, mamy problem. 

Wpływ systemów uczenia maszynowego na nasze życie

Eksperci twierdzą, że rozwój sztucznej inteligencji poprawi sytuację większości ludzi w ciągu następnej dekady, ale wielu ma obawy, jak postępy w AI wpłyną na to, co to znaczy być człowiekiem, być produktywnym i korzystać z wolnej woli. Cyfrowe życie zwiększa ludzkie możliwości, ale też zmienia sposób naszego działania. Czy w miarę rozprzestrzeniania się sztucznej inteligencji opartej na algorytmach (AI) ludzie będą mieli się lepiej niż obecnie? 

Wiele osób przewiduje, że sztuczna inteligencja połączona w sieć zwiększy ludzką skuteczność, ale zagrozi również naszej autonomii. Mówi się o nowych możliwościach, o tym, że komputery mogą przekraczać ludzką inteligencję i możliwości w takich zadaniach, jak złożone podejmowanie decyzji, wnioskowanie i uczenie się, zaawansowane analizy i rozpoznawanie wzorców, ostrość widzenia, rozpoznawanie mowy i tłumaczenie języka. Tak zwane „inteligentne” systemy mają pojawiać się na wielu polach eksploatacji – w społecznościach, pojazdach, budynkach i obiektach użyteczności publicznej, w gospodarstwach rolnych i w procesach biznesowych. Ich zaangażowanie pozwolić  zaoszczędzić czas, pieniądze i potencjalnie uratować wiele ludzkich żyć.

Specjaliści z branży mają wiele optymizmu, skupia się on obecnie mocno między innymi na opiece zdrowotnej i wielu możliwych zastosowaniach systemów sztucznej inteligencji w diagnozowaniu i leczeniu pacjentów oraz wspomaganiu osób starszych w pełniejszym i zdrowszym życiu. Podobnie zastosowania AI w epidemiologii mają pozwolić diametralnie zmienić jakość naszego życia. Tutaj oprócz samych systemów sztucznej inteligencji stosowanych jest wiele rozwiązań do operowania na ogromnych zbiorach danych zwanych BigData.

Z drugiej strony większość ekspertów, niezależnie od tego, czy w kwestii AI są optymistami, czy też nie, wyraża obawy dotyczące długoterminowego wpływu nowych narzędzi na zasadnicze elementy bycia człowiekiem. Większość ekspertów zajmujących się badaniem i prognozowaniem rozwoju systemów sztucznej inteligencji nie chce jednoznacznie określać, czy coraz szersza implementacja systemów AI sprawi, że ludziom będzie się żyło lepiej czy gorzej. Większość ekspertów podziela wspólne obawy dotyczące możliwego wykorzystania tych systemów, które pogorszyłoby życie ludzkości, ale jednocześnie wskazuje jasne ścieżki, które miałyby temu zaradzić, co może sugerować, że to, jaki impakt będzie miało AI na ludzkość, zależy w zasadzie od nas samych.

Cywilizacyjny impakt AI

Pew  Research Center wraz z Elon University z Karoliny Północnej w USA zorganizowały spotkanie panelowe poświęcone perspektywom zwiększonego uzależnienia naszego społeczeństwa od systemów sztucznej inteligencji. Omawiano perspektywę rozwoju do około 2030 roku. Przewiduje się, że do tego czasu będziemy jeszcze bardziej zależni od AI w złożonych systemach cyfrowych. Niektórzy specjaliści twierdzą, że będziemy kontynuować zwiększanie zależności naszego życia od przetwarzania informacji przez systemy komputerowe. 

Specjalistom zadano jedno, zasadnicze pytanie: “Jak sądzisz, czy do 2030 roku prawdopodobne jest, że rozwój sztucznej inteligencji i powiązanych z nią systemów technologicznych zwiększy ludzkie możliwości i wzmocni je? Czy przez większość czasu większość ludzi będzie w lepszej sytuacji niż obecnie? A może najbardziej prawdopodobne jest to, że rozwój sztucznej inteligencji i zredukuje ludzką autonomię i sprawność w takim stopniu, że większość ludzi nie będzie w lepszej sytuacji niż obecnie?”. Ogólnie rzecz biorąc, pomimo obaw odpowiadających ekspertów, aż 63% z nich stwierdziło, że mają nadzieję, że większość osób będzie w lepszej sytuacji w 2030 r., niż jest teraz. Pozostałe 37% stwierdziło, że systemy AI nie polepszą naszego życia.

Wielu specjalistów, którzy wzięli udział w dyskusji panelowej, uważa, że rosnące uzależnienie ludzi od systemów technologicznych nie będzie dla nas ciężarem, jeśli zwróci się szczególną uwagę na to, jak te nowe narzędzia, platformy i sieci są projektowane, dystrybuowane i aktualizowane. Sonia Katyal z Berkeley Center for Law and Technology jest członkinią Rady Departamentu Doradztwa Gospodarki Cyfrowej Stanów Zjednoczonych. Przewiduje ona, że w 2030 roku najwięcej pytań będzie dotyczyć tego, w jaki sposób postrzeganie AI i jego zastosowanie będzie miało wpływ na prawa obywatelskie w przyszłości. Pytania o prywatność, wolność słowa, prawo do zgromadzania się etc. pojawią się ponownie w nowym kontekście sztucznej inteligencji, podważając nasze najgłębsze przekonania na temat równości szans dla wszystkich. Od tego, jak szeroko przeanalizujemy dziś te pytania, zależy wpływ nowych technologii na ludzkość w przyszłości.

Erik Brynjolfsson, dyrektor MIT Initiative on the Digital Economy i autor książek poświęconych przyszłości systemów cyfrowych, skomentował z kolei: “AI i pokrewne technologie osiągnęły już nadludzką wydajność w wielu obszarach i nie ma wątpliwości, że ich możliwości poprawią się, prawdopodobnie bardzo znacząco, do 2030 roku. Myślę, że bardziej prawdopodobne jest, że użyjemy tej mocy, aby uczynić świat lepszym miejscem. Na przykład, możemy praktycznie wyeliminować globalne ubóstwo, masowo zmniejszyć choroby i zapewnić lepszą edukację prawie wszystkim na naszej planecie. Systemy sztucznej inteligencji i uczenia maszynowego mogą być jednak również wykorzystywane do coraz większego skupiania bogactwa i władzy, czy do tworzenia jeszcze bardziej przerażającej broni”. Jak wskazuje Brynjolfsson, “żaden wynik nie jest niemożliwy”. Według niego nie powinniśmy pytać, “co się stanie?”, ale “co zdecydujemy się zrobić?”. W tym zakresie konieczna jest współpraca naukowców, biznesmenów i prawodawców, a także konsumentów i odbiorców technologii.

Podobnego zdania jest Bryan Johnson, założyciel i dyrektor generalny Kernel, wiodącego dewelopera zaawansowanych interfejsów sieci neuronowych oraz funduszu venture capital OS Fund. Powiedział on: “zdecydowanie wierzę, że odpowiedź zależy od tego, czy możemy przesunąć naszą gospodarkę w kierunku priorytetowego traktowania poprawy jakości życia człowieka”. Marina Gorbis, dyrektor wykonawczy Institute for the Future, wskazuje na podobne problemy. “Bez znaczących zmian w naszej polityce ekonomicznej i systemach zarządzania danymi systemy sztucznej inteligencji mogą stworzyć większe nierówności ekonomiczne (…). Za każdym razem, gdy programujemy nasze środowiska, kończymy programowanie siebie i naszych interakcji. Ludzie, by współpracować z AI, muszą stać się bardziej znormalizowani, usuwając przypadkowość i niejednoznaczność z interakcji. A ta dwuznaczność i złożoność jest istotą bycia człowiekiem”.

Dodaj komentarz