Społeczeństwo

Czy sztuczna inteligencja sprawi, że staniemy się niepotrzebni? Rozmawiamy z futurolożką

Czy sztuczna inteligencja sprawi, że staniemy się niepotrzebni? Rozmawiamy z futurolożką
Fot. 123rf

Sztuczna inteligencja słusznie wywołuje niepokój? Czy zdolność maszyn do wykazywania ludzkich umiejętności, takich jak rozumowanie, uczenie się, planowanie i kreatywność sprawi, że ludzie staną się zbędni? Czy świat zamieni się w kolejny odcinek serialu "Black Mirror" albo "Jetsonów"? Co wyniknie z naszej zażyłości z Siri czy Alexą? O fenomenie SI rozmawiamy z futurolożką Aleksandrą Przegalińską.

Od pewnego czasu w naszym codziennym słowniku funkcjonują zupełnie nowe słowa: algorytm, big data, mikrotargetowanie… Oswajamy się ze sztuczną inteligencją?  

Aleksandra Przegalińska: Na pewno zaszła duża zmiana. Wcześniej sztuczna inteligencja była dziedziną raczej dla wtajemniczonych. W powszechnej świadomości istniała głównie dzięki filmom hollywoodzkim straszącym nas niebezpiecznymi robotami. Ze społecznego punktu widzenia zauważyliśmy większą obecność SI z powodu nieetycznego wykorzystania danych z social mediów podczas poprzednich amerykańskich wyborów prezydenckich i związanego z tym skandalu. Z technicznego – zmianę spowodował ogromny wzrost liczby danych generowanych przez smartfony, tablety, komputery, publiczne kamery, sensory, który nastąpił w okolicach 2010 roku, oraz to, że umiemy je wykorzystywać: zasilamy nimi algorytmy skonstruowane na podobieństwo ludzkiego mózgu – sztuczne sieci neuronowe, które wcześniej bez tych danych nie działały zbyt dobrze.

Wcześniej technologie wykonywały zaplanowane dla nich zadania, a teraz dostarczamy dane do sieci neuronowych i one same coś z nimi kombinują?

Mniej więcej na tym to polega. Wcześniej mieliśmy klasyczne algorytmy, czyli zbiory instrukcji do rozwiązania problemu. Można im powiedzieć, żeby coś wyszukały czy przeprowadziły obliczenia. Algorytmy sztucznej inteligencji lub inaczej uczenia maszynowego mają nową cechę – uczą się. Jeśli na przykład algorytm zostanie wytrenowany na zbiorze pani zdjęć, to będzie w stanie panią rozpoznać na innych zdjęciach, których wcześniej nie widział. Klasyczny algorytm tego nie zrobi. Algorytmy uczenia maszynowego są znane od dłuższego czasu, ale te najnowsze uczą się bardzo szybko i przy niewielkim nadzorze człowieka. Wystarczy, że dostaną dużo danych i wskazówki, a będą w stanie opanować zasady jakiejś gry, nauczą się malować, komponować muzykę albo pisać poezję. Kiepską, ale jednak. Są zdolne do opanowania umiejętności na coraz lepszym poziomie. Algorytm już wygrał z mistrzem świata w grę Go, a obraz namalowany przez SI sprzedano po raz pierwszy na aukcji w londyńskim Christie’s za 430 tys. dolarów. 

Ale nie do końca wiemy, jak algorytmy się uczą i jak przetwarzają dane, które im dostarczamy.

Wielowarstwowe sieci neuronowe rzeczywiście są dla nas do pewnego stopnia zagadką. Inspiracją dla ich konstrukcji był nasz mózg, jego usieciowienie i neurony. Ale trzeba powiedzieć, że o działaniu tych algorytmów i tak wiemy więcej niż o funkcjonowaniu ludzkiego mózgu. (śmiech) One są oczywiście dużo prostsze od mózgu, ale jednak na tyle skomplikowane, że nie możemy śledzić sposobu ich działania. Widzimy jedynie skutki. OK, nauczył się rozpoznawać pani zdjęcia, bo wgrała mu pani zdjęcie, którego wcześniej nie widział, i panią rozpoznał. Ale jak to zrobił, jakimi cechami się kierował, tego nie jesteśmy w stanie stwierdzić. Co stanowi w naszej dziedzinie duże wyzwanie.

Rozwój SI budzi niepokój, ale daje też nadzieję na rozwiązania, które będą korzystne dla ludzkości. Co dobrego może nam przynieść sztuczna inteligencja?

Obszarem, w którym wykorzystanie SI jest najmniej kontrowersyjne, a korzyści jednoznaczne, jest medycyna. Sztuczna inteligencja świetnie się sprawdza i w terapii, i w diagnostyce medycznej. Na przykład algorytmy bardzo precyzyjnie analizują zdjęcia radiologiczne. Na poziomie lekarza eksperta, a nawet wyższym. Co nie znaczy, że chcielibyśmy pozbyć się lekarzy, bo to oni powinni efekty diagnozowania algorytmu jeszcze raz przeanalizować i podjąć ostateczną decyzję. SI może pełnić rolę narzędzia wspomagającego.

Można wykorzystywać algorytmy w poszukiwaniu nowych leków. Modele uczenia maszynowego świetnie sprawdzają się w szukaniu nowych połączeń substancji chemicznych i przewidywania ich efektów.

W książce „Sztuczna inteligencja. Nieludzka, arcyludzka” podaje pani robiący wrażenie przykład: w USA jest 800 różnych leków i szczepionek stosowanych w leczeniu nowotworów. Lekarz prawdopodobnie nie tylko nie jest w stanie wszystkich zapamiętać, ale nie da rady porównać czy stworzyć najlepszego dla konkretnego pacjenta połączenia leków. Algorytm zrobi to szybko.

Jest jeszcze jeden świetny przykład – dotyczy Watsona, sieci neuronowej IBM, który jest w stanie szybko przeczytać 25 mln artykułów naukowych! Zebrana w ten sposób wiedza może być pomocna na przykład w diagnozowaniu w przypadku nieoczywistych objawów choroby. Ale SI sprawdza się również w relacjach z pacjentem. W londyńskim szpitalu zaimplementowano boty, czyli algorytmy udające żywą osobę, które świetnie sobie radziły z pierwszym kontaktem z pacjentami: umawiały wizyty, odciążając w tej sposób ekipę szpitala. SI mogłaby się sprawdzać w opiece nad seniorami. Robot może kontrolować stan zdrowia, dostarczać lekarstwa, zgłaszać nieprawidłowości czy wezwać pomoc. Spore nadzieje wiążę też z ideą smart city, czyli połączeniem sztucznej inteligencji i sensorów, dzięki którym może lepiej działać logistyka i transport. Już mamy inteligentne nawigacje – Google stworzył algorytm, który pokazuje zielone drogi, czyli takie, dzięki którym spalisz najmniej paliwa, nie będziesz stać w korku i ograniczysz emisję CO2.
Algorytmy można też wykorzystać w nowoczesnym, zielonym rolnictwie i szkoda, że w Polsce mało się o tym mówi. Mogą planować, co i gdzie sadzić, wykorzystując swoją zdolność przewidywania na podstawie danych pogody czy nawodnienia ziemi.

Wizja inteligentnego domu opartego na sztucznej inteligencji, którą opisuje pani w swojej książce, wydaje się kusząca. Bliska animowanemu serialowi dla dzieci „Jetsonowie”, w którym sztuczna inteligencja działa dla dobra i wygody człowieka. Takie rozwiązania to daleka przyszłość?

Nie, całkiem bliska. Jak powiedział William Gibson: „Przyszłość jest teraz, tylko nierówno rozłożona”. Takie domy już istnieją. Sensory mogą otwierać drzwi, planować temperaturę, włączać telewizor, robić kawę. Szafa może nam codziennie rano oferować wybór ubrań. A dzięki temu, że będzie nam pokazywać, co w niej mamy, nie zdarzy nam się zapomnienie o jakichś częściach garderoby i kupowanie podobnych. Tak samo z lodówką. Ale technologia ma to do siebie, że najlepiej się rozwija, kiedy się już upowszechni. Nowości zazwyczaj trochę zgrzytają. Myślę, że powszechne inteligentne rozwiązania domowe czekają nas już niedługo.

W Ameryce już w 50 mln domów została zainstalowana Alexa, czyli asystent codziennego życia Amazona, który robi zakupy, przypomina o spotkaniach, włącza muzykę i filmy, a nawet opowiada dowcipy. Właściciele iPhone’ów mogą porozmawiać z Siri. Ale w rzeczywistości wykorzystujemy SI na co dzień, nawet nie mając tego świadomości.

Jest mnóstwo takich przykładów. Aplikacje pogodowe są oparte na uczeniu maszynowym. Kiedy czytamy o modelowaniu pandemii, możemy być pewni, że to, kiedy nastąpi szczyt zachorowań, obliczono za pomocą algorytmów SI. Na algorytmach są oparte zakupowe systemy rekomendacyjne na stronach czy propozycje na portalach streamingowych z muzyką czy z filmami – to algorytmy na podstawie naszych dotychczasowych przesłuchań czy obejrzeń przewidują, co nam się spodoba. Na co dzień towarzyszą nam też boty, choć to raczej ciemna strona SI. Na Twitterze od 12 do 20 proc. wszystkich kont to konta botowe, które śledzą innych użytkowników, przeklejają treści, tworzą sztuczny ruch.

Bota można wykorzystać, żeby pomagał w szpitalu, służył pomocą w call center czy rekomendował produkty, ale można go też zaprogramować, żeby wysyłał ohydne treści czy umieszczał agresywne komentarze.

Okazuje się, że algorytmy, które uczą się na podstawie danych z rzeczywistości, automatycznie przejmują nasze uprzedzenia. Pokazał to eksperyment Microsoftu, który umieścił specjalnego bota na Twitterze. Bot o imieniu Tay po 16 godzinach edukacji na podstawie zawartości wpisów na portalu stał się rasistą, antysemitą, mizoginem i zwolennikiem Hitlera.

Niestety, bias algorytmiczny, czyli uprzedzenia, które są wpisane w działanie algorytmów, to nasza wina. Jeżeli 1500 osób wpisze w Google’a: „Janek jest głupi”, to zdanie będzie priorytetyzowane, bo algorytm uzna, że bez wątpienia właśnie taki jest Janek. Tay stał się spektakularnym przykładem, co można zrobić z botem. Czasem zapominamy, że jesteśmy wzorcem dla SI. Ona działa inaczej, w mniej oryginalny sposób, ale nas naśladuje. Cokolwiek niefajnego robi, jest to odbiciem tego, co się dzieje pośród nas.

Zdarzyły się spektakularne skandale z uprzedzeniami algorytmów: mężczyźni dostawali automatycznie wyższe limity na kartach kredytowych Apple’a. Co upublicznił dawny współzałożyciel filmy Steve Wozniak. A algorytm do zatrudniania pracowników w Amazonie preferował tylko mężczyzn. Ale na pewno jest wiele takich miejsc, o których nie wiemy… 

Na szczęście firmom już się nie opłaca korzystać z takich algorytmów ze względu na straty wizerunkowe czy te wynikające z ewentualnych pozwów. Szczęśliwie również społeczność akademicka czy firmy technologiczne nie patrzą na uprzedzenia algorytmiczne z założonymi rękami. Dzisiaj już wiemy, że najważniejsza jest reprezentatywność danych – muszą być szerokie i nikogo nie wykluczać. Jeżeli chcę mieć informacje o wielu różnych klientach i proponować im różne produkty, a do bazy będę wrzucać tylko dane białych zamożnych mężczyzn, to algorytm nie będzie miał nic do pokazania kobiecie. Są też metody techniczne. Można ukryć przed algorytmem płeć, zarobki, wiek lub mieszać dane na ten temat, żeby go trochę oszukać.

Jednak dzisiaj większość inwestycji i badań nad SI odbywa się w firmach komercyjnych i jak się możemy domyślać, te firmy biorą pod uwagę głównie własny interes

Dużo projektów związanych z przeciwdziałaniem uprzedzeniom algorytmicznym czy rozpoznaniem działania sieci neuronowych (black boxów) pochodzi z prestiżowych uczelni: MIT, Caltechu czy ETH Zurich. Choć rzeczywiście największe innowacje dzieją się w firmach komercyjnych. Ale także coraz częściej podnoszone są etyczne aspekty działania SI. Nie tylko przez akademików, ale także przez polityków. Poza tym umiejętności cyfrowe są coraz bardziej dostępne, a wiedza o technologiach coraz większa. To wszystko powoduje, że sztuczna inteligencja może powstawać także poza wielkimi ośrodkami.

Oczywiście, nie jestem naiwna, pewnie jeszcze nieraz wstrząśnie nami jakiś skandal związany z SI i korporacjami czy polityką, jak sprawa Cambridge Analytica. Jestem jednak przekonana, że sytuacja jest dzisiaj o wiele zdrowsza niż w 2016 roku, bo dużo więcej wiemy.

Tymczasem w Chinach właśnie odbywa się wielki eksperyment. Wprowadzono tam „system zaufania społecznego” oparty na SI i system rozpoznawania twarzy. Mieszkańcy Chin są kontrolowani właściwie na każdym kroku za pomocą kamer oraz obowiązuje system punktowy, który za właściwe według władzy zachowania nagradza, a za niewłaściwe karze. 

Ten system jest dość przerażający, ale jednocześnie jest kolejnym dowodem, że technologia stanowi odzwierciedlenie kultury, w której powstaje. Ten pomysł wydaje się rozszerzeniem ambicji tamtejszej władzy, która moim zdaniem na tej technologii się potknie. Dzisiaj nam się wydaje, że przewaga w rozwoju SI leży w danych, a Chińczycy tych danych mają mnóstwo. Ale za jakiś czas może się okazać, że wcale nie liczba danych jest decydująca. System zaufania społecznego (Citizen scoring) miał doprowadzić nie tylko do sprawowania kontroli nad społeczeństwem, ale także miał zmieniać obywateli na lepsze. Nie przyniósł oczekiwanych skutków. Raczej nie rozpaczają, że mają sto punktów mniej w systemie. Żyją tak, jak żyli.   

Zajmuje się pani także automatyzacją pracy. Do jakiego stopnia lęk, że przyjdą boty i napiszą za mnie teksty, jest uzasadniony?

Jestem raczej racjonalnie optymistyczna. Wydaje mi się, że najważniejsze jest to, że nasza praca się zmieni i będziemy musieli zdobywać nowe umiejętności. Ale tak było zawsze – od początku industrializacji nowe technologie pewne zawody likwidowały, a inne wytwarzały. Zawód informatyka czy architekta sieci neuronowych nie był popularny, teraz mnóstwo firm właśnie takich pracowników szuka. Podobnie jest ze współczesnym dziennikarstwem, które zmienił rozwój technologii. W zastąpienie człowieka przez algorytmy nie wierzę, ale jestem przekonana, że nastąpią liczne przeobrażenia na rynku pracy. Przecież bot nie zrobiłby ze mną tego wywiadu, ale może mógłby pani przygotować research, informacje o mnie i moich publikacjach, a potem przepisać naszą rozmowę. Wierzę w technologię asystującą człowiekowi.
(Spróbowałam użyć algorytmu rozpoznawania mowy dostępnej w internecie do zapisania naszego wywiadu. Algorytm zapisał poprawne słowa, ale nie te, które padły w wywiadzie, i ostatecznie tekst nie miał sensu. Czasem prowadziło to do komicznych efektów, jak zdanie: „Myślę, że jesteś lodówką”. Musiałam przepisać naszą rozmowę w tradycyjny sposób).

Aleksandra Przegalińska - dr nauk humanistycznych i filozofii sztucznej inteligencji, futurolożka. Związana z Akademią Leona Koźmińskiego, bostońskim MIT i Uniwersytetem Harvarda, gdzie prowadzi badania nad automatyzacją pracy.

Tekst ukazał się w magazynie PANI nr 06/2021
Więcej na twojstyl.pl

Zobacz również