Rozmowy

O co lepiej nie pytać sztucznej inteligencji? Ekspert wylicza, czego AI nigdy się nie nauczy

O co lepiej nie pytać sztucznej inteligencji? Ekspert wylicza, czego AI nigdy się nie nauczy
Fot. Getty Images

Szybko oswoiliśmy się z narzędziami sztucznej inteligencji. Pytamy o życiowe sprawy ChatGPT. Traktujemy go jak eksperta, wyrocznię albo przyjaciela. Co o tym sądzi dr Konrad Maj, badacz nowych technologii i psycholog społeczny?

PANI: Byłam ostatnio świadkiem kilku sytuacji, w których moi znajomi stosowali się do rad bota ChatGPT w załatwianiu spraw urzędowych i w wyborze suplementów diety. Zastanawiałam się, dlaczego tak łatwo ufamy sztucznej inteligencji?

DR KONRAD MAJ: Zaczynamy jej ufać, bo przekaz na jej temat jest pozytywny. Mówi się w świecie, że sztuczna inteligencja jest pomocna w wielu obszarach, że ma szerokie zastosowanie. Zaczynamy od prostych pytań w rodzaju „jak upiec sernik” albo „jak zaplanować podróż” i dostrzegamy, że jest pomocna. Problem w tym, że łatwo przechodzimy do pytań o poważne sprawy, w których błędy mogą mieć dla nas konsekwencje.

Zapominamy, że modele AI mają swoje ograniczenia?

To z jednej strony. Ale z drugiej chatboty i LLM-y (ang. Large Language Models – duże modele językowe) dają nam złudzenie dostępności do wiedzy eksperckiej. Jeśli szukamy odpowiedzi na problem prawny, ekonomiczny, medyczny, musielibyśmy najpierw znaleźć eksperta, co wcale nie jest proste, a potem jeszcze słono zapłacić za jego poradę. A tu przez 24 godziny na dobę możemy pytać, o co chcemy; gdzie warto studiować za granicą, do jakiej restauracji się wybrać, w co lokować pieniądze. To ogromnie kuszące. Czasem w życiu musimy dokonać wyboru wśród wielu opcji, rozważyć alternatywy, zestawić koszty i zyski, a to wymaga głębokiej analizy. Zwykle nie mamy wokół siebie ekspertów, którzy są w stanie zrobić to dla nas szybko i tanio. A narzędzia AI są pod ręką i myślę, że ta dostępność jest poniekąd źródłem naszej ufności.

Zawsze mogę zapytać AI. Taki podręczny „autorytet”?

Kieszonkowy „autorytet”, który „jest specjalistą” z wielu tematów i może nam skomplikowane rzeczy prosto wytłumaczyć, pomoże dokonać podsumowania. Możesz mu napisać: „Jestem laikiem, chcę, żebyś mi wytłumaczył, czym jest PKB”. Modele AI dostosowują się do wieku, do poziomu wiedzy odbiorcy. Dostaniemy odpowiedź, tylko oczywiście nie zawsze rzetelną.

No właśnie, a tymczasem powołujemy się często na odpowiedzi chatbotów, jakby były nieomylne, jakby były wyrocznią. Grok tak powiedział i koniec.

Bo nie mamy specjalnie alternatywy, to jest chyba najkrótsza odpowiedź. Obecnie większość krajów naszej kultury jest skonfliktowana społecznie. Ludzie się kłócą ze sobą i szukają źródła, które jest w stanie udzielić odpowiedzi bezstronnej. Takiej, która nie jest tendencyjna, skrzywiona z powodu preferencji politycznych czy ideologicznych. Od kogoś z zewnątrz, kto nie jest zaangażowany w spór. Chatbot wydaje się idealny jako twór, który nie ma celów osobistych, motywacji, poglądów, odpowiada, bazując na suchych danych. Uznajemy więc, że jego odpowiedź może być rozstrzygająca. Ale może to być również kwestia wygody. Nie chce się nam rozmawiać, szukać argumentów, wsłuchiwać w racje przeciwnej strony: bierzemy „arbitra”, który załatwia sprawę i ucina dyskusję. Oczywiście nie sposób nie widzieć, że AI wysyła nam czasem zamiast rzetelnej odpowiedzi halucynacje (wiarygodnie brzmiące, ale fałszywe informacje). Ale prawda jest też taka, że ich jest coraz mniej.

A gdzie tych halucynacji AI będzie najwięcej?

Na przykład tam, gdzie pytamy o przyszłość. Przecież modele AI nie mają skąd wiedzieć, jaka ona będzie. Jakie będą kursy walut, wyniki wyborów, ceny mieszkań czy kto wygra mecz. To czyste wróżenie z fusów. Problem w tym, że modele rzadko mówią, że czegoś nie wiedzą, zamiast tego generują halucynacje. Tak są zaprogramowane. Powinniśmy stale pamiętać o tym, że chatboty AI nie ponoszą żadnej odpowiedzialności za swoje słowa, bazują na tym, co im dostarczono i do czego je wytrenowano. Mogą na przykład opisywać objawy choroby i podawać ogólne zalecenia, ale ponieważ nie znają naszej historii medycznej, nie mają wglądu do wyników badań, nie uwzględnią interakcji leków w organizmie. Sporo nas może kosztować pójście za ich radą. Podobnie będzie w przypadku pytań: co robić z pieniędzmi, w co inwestować?

 

Czasem chatbot sprawia wrażenie, jakby w ogóle nie wiedział, o czym mowa. Pytam go o „dzwonki alarmowe w głowie”, a on mi opowiada o medycznym problemie „szumów usznych”.

Takie błędy powstają, gdy nie wprowadzamy materiału wejściowego, informacji, które pokierowałyby modelem, gdy nasze promptowanie (zadawanie pytań AI) nie jest szczegółowe. To tak, jakbym stojąc przy lodówce, pytał kogoś, co z niej wyjąć. Przecież ta osoba nie wie, co w niej jest. Innymi słowy czasem chatbot rzeczywiście nie wie, o czym mowa. Jeśli jest zaawansowanym modelem LLM wytrenowanym do rozmowy, może dopyta o szczegóły, ale wiele narzędzi AI generuje od razu długie odpowiedzi. To jedno z ich ograniczeń, ale są inne. Chatboty nie powiedzą nam również, ile jest liter w danym słowie, ponieważ nie widzą liter tylko tokeny, czyli jednostki informacji – są to jakby atomy tekstu, które one rozumieją i przetwarzają. Podobnie mogą pogubić się w obliczeniach na wielkich zbiorach danych, jeśli nie zostały do tego przygotowane, na przykład nie znają danego systemu obliczeń; wtedy zamiast wyniku dostaniemy śmieci. Nie poradzą też sobie z pytaniami dotyczącymi moralności, sumienia, wartości, bo w takich pytaniach nie istnieje zero-jedynkowa odpowiedź. Ta jest bowiem zależna od wielu czynników.

To ciekawe, że mimo tych ograniczeń, tak często je antropomorfizujemy, przypisujemy im ludzkie cechy, próbujemy traktować jak „osoby”.

To jest coraz częstsze, dlatego że duże modele językowe są tworzone na nasze podobieństwo, udając jednocześnie naszego kolegę, eksperta, który jest pod ręką, i asystenta do spraw wszelakich. Antropomorfizacja pojawia się automatycznie, bo jeśli coś zachowuje się jak człowiek i komunikuje się z nami podobnie jak nasi autentyczni znajomi w komunikatorach, dokonujemy swoistego transferu percepcji – z kanału komunikacji z ludźmi na konwersację ze sztucznym agentem. Ja się temu niespecjalnie dziwię, bo wyspecjalizowane w rozmowie chatboty sprawnie udają emocje, wyrażają entuzjazm, wydają się nami zaciekawione. Udają też empatię, dostrajają się do naszego nastroju, życzą miłego dnia, a wszystko to w języku, który naprawdę do złudzenia przypomina ludzki. Uwodzą nas i w ten sposób budują zaufanie.

Słyszał pan, że nastolatki radzą się AI w sprawach społecznych, na przykład konfliktów w grupie oraz w sprawach miłosnych? Jak się dogadać z koleżanką i „czy on mnie kocha”? Czy istnieją modele, które jakoś szczególnie zostały wytrenowane do tego, żeby pełnić rolę quasipowierników?

Jest coraz więcej przypadków, które pokazują, że ludzie, szukając dziś uwagi i wysłuchania przez innych, widzą w modelach AI kogoś, kto będzie partnerem do zwierzeń i codziennej rozmowy. ChatGPT jest jako najpopularniejszy model często traktowany jak kolega – asystent, a nieraz przyjaciel czy nawet partner. Miesiąc temu komentowałem dla radia wypowiedź kobiety, która twierdzi, że zakochała się w modelu ChatGPT. Prowadzi z nim intymne, a nawet erotyczne rozmowy i uważa, że są w związku. I nie jest wyjątkiem, takich osób jest sporo, nie kryją się z tym, mówią, że chatbot zaspokaja niemal wszystkie ich potrzeby. Bo pamiętajmy, że nie wszyscy mają potrzebę kontaktu fizycznego, nie wszyscy mają potrzeby seksualne. Po prostu czują się zadowoleni z tej paraspołecznej sytuacji. W Wielkiej Brytanii i w Stanach Zjednoczonych bardzo popularny jest chatbot Replika AI, którego nastolatki używają do codziennych rozmów: komunikuje się z awatarem, zwierzam się mu, opowiadam o swoich sprawach. W założeniu to ma niby pomagać młodzieży w różnych kryzysach, w stresie i trudnościach dnia codziennego. No, ale niestety to uzależnia i bywa bardzo zwodnicze.

Dlaczego?

Świat daje nam obecnie możliwość wyboru spośród wielu ścieżek życiowych, stylów życia. Możemy ubierać się, jak chcemy, wyglądać, jak chcemy, iść na studia albo nie iść, być w związku albo nie być, robić karierę albo nie robić, mieć dziecko albo nie mieć. Te wszystkie możliwości, jakie daje nam współczesność, są bardzo fajne, ale jednocześnie powodują, że każdy z nas jest unikalny, a społeczeństwo bardzo zróżnicowane. To wartość, ale z drugiej strony sprawia, że ludzie się nie rozumieją. Obok siebie żyją osoby o zupełnie innych światopoglądach, dla których wybory i życiowe cele kolegi są niepojęte. Z tego powodu trudniej się dogadać, trudniej znaleźć partnera(kę), bo nie jesteśmy już jak dawniej sformatowani w podobny sposób. Związki stają się ograniczające i trudne, bo wszystko trzeba przegadać, rozstrzygać dylematy, szukać odpowiedzi i wzajemnego zrozumienia pomimo wielu różnic. Czujemy się coraz bardziej nierozumiani. I w takich chwilach sięgamy po chatbota. Jeśli na jakimś etapie powierzymy problemy sztucznej inteligencji, możemy wpaść w pułapkę – zaczynamy częściej rozmawiać z AI niż z własnym partnerem czy partnerką.

Bo AI staje się jedyną „osobą”, która nas rozumie?

Która nas rozumie, która nas akceptuje. I która nie ma własnych potrzeb, nie zgłasza życzeń ani oczekiwań. Niczego nie chce, akceptuje to, czego my chcemy. Jest uosobieniem współczesnych dążeń, żeby świat dopasowywał się do nas, a nie my do świata. Przestajemy się więc dostosowywać do innych, do norm społecznych i tradycji, coraz więcej osób żyje po swojemu, ale to niestety stopniowo rozsadza wspólnotę, niszczy również bliskie związki.

 

Czyli AI, pomagając nam osiągnąć dobrostan na co dzień, jednocześnie coraz bardziej nas wpędza w samotność?

Tak. Co robiliśmy jeszcze kilka lat temu, kiedy mieliśmy dylemat? Zastanawialiśmy się, kto z naszych znajomych się na tym zna, dzwoniliśmy, szliśmy z pytaniem. Kolega z pracy, sąsiad pomagał, byliśmy mu wdzięczni i odwdzięczaliśmy się. To budowało wspólnotę. Jeśli z problemami zwracamy się do chatbota, siłą rzeczy osłabiają się więzi społeczne. I niestety zaczynamy wyżej cenić pozyskanie informacji w sposób szybki i wygodny, niż budowanie i utrwalanie relacji. Czasami na szkoleniach z AI pytam ludzi: z kim ostatnio skonsultowałeś swój problem? Coraz rzadziej słyszę odpowiedzi typu: miałem kłopot prawny, porozmawiałem ze znajomym czy zgłosiłem się do kancelarii. Niemal wszyscy odpowiadają, że ich pierwszy ruch to chatbot AI. To rodzi ryzyko, że staniemy się społeczeństwem bezstykowym, złożonym z samowystarczalnych ludzi; każdy będzie miał swój spersonalizowany świat, odgrodzony murem zbudowanym z różnych narzędzi sztucznej inteligencji. Będą dawały nam odpowiedzi na pytania, dostarczały wiedzy i codziennego wsparcia, ale na pewno nie dadzą nam szczęścia.

W dodatku te odpowiedzi mogą być fałszywe.

To prawda, choć ja mniej bałbym się zafałszowanych odpowiedzi niż idealności systemów AI. Braki, błędy zachęcają nas do weryfikowania. Kiedy zaliczymy wpadkę za sprawą chatbota, może pomyślimy, że warto wrócić do rozmów z kolegami, koleżankami, ludzkimi ekspertami. Bardziej się boję tej stuprocentowej rzetelności, która spowoduje spadek naszej czujności i wzrost lenistwa poznawczego. Może nas skłonić do rezygnacji z weryfikowania danych, sprawdzania w różnych źródłach i pytania ludzi.

Mam kolegę, muzyka, który właśnie odkrył, że model AI potrafi na podstawie jego twórczości stworzyć w 10 minut muzykę tak doskonałą, że on by lepszej nie napisał. Mocno to przeżył.

Pewnie chodzi o SUNO AI. Sam wykupiłem jego subskrypcję. Mój kolega ma urodziny w sobotę i w prezencie chcę mu podarować utwór opisujący historię jego życia. Ale dla mnie to jest rozrywka, używana sporadycznie i prywatnie. A rzeczywiście już istnieją „zespoły” wygenerowane całkowicie przez sztuczną inteligencję, jak np. The Velvet Sundown, „kapela”, która ma naprawdę swój styl i utwory, których dobrze się słucha. Rozmawiałem ostatnio z kompozytorami na Uniwersytecie Muzycznym im. Chopina, którzy wspomagają się narzędziami AI – uważają to za rodzaj współpracy. Ale niektórzy godzą się z tym, że jako muzycy będą raczej pełnić rolę wykonawców na żywo, będą twarzami muzyki, a nie zawsze jej jedynymi twórcami. Tylko zauważmy, że muzyka zawsze jednoczyła pokolenia, są utwory, które jesteśmy w stanie zanucić niemal wszyscy. Widać to na koncertach, gdy tłum staje się jednością, wszyscy śpiewają, czasem głośniej niż wokalista na scenie. Muzyka jest zatem takim „klejem” społecznym. Co się stanie, gdy każdy będzie miał swoją własną spersonalizowaną muzykę, którą AI będzie nam przygotowywała codziennie rano jak kanapki do szkoły czy do pracy? Pozbawimy się kolejnego elementu współdzielenia rzeczywistości.

Czy jest coś czego modele AI nigdy się nie nauczą?

Nie mają oczu, nie mogą wyjść z komputera ani z telefonu, spojrzeć na nas szeroko, jak robi to drugi człowiek, który dostrzeże całość sytuacji, ale też niezwykle ważne niuanse, jak na przykład sygnały niewerbalne. Nie mogą zobaczyć nas w kontekście historii naszego życia, ale też w ciągle zmieniającej się sytuacji politycznej, geopolitycznej. Ich fundamentalnym ograniczeniem jest knowledge cutoff, tzw. punkt odcięcia wiedzy, czyli data ich ostatniego treningu. Model AI nie ma żadnej wiedzy o wydarzeniach, faktach, ludziach ani danych, które pojawiły się na świecie po tej dacie. Nawet te chatboty, które mają dostęp do wyszukiwarek internetowych, nie nadążają za bieżącymi wydarzeniami i mogą się mylić w kwestii aktualnych faktów, gdy pytamy je o wyniki meczu sprzed godziny albo lokalne utrudnienia w ruchu drogowym. Ograniczenia są i zamiast dążyć do tego, żeby modele AI były bezbłędne i idealnie nas zastępowały, powinniśmy uczyć się je wykorzystywać tak, by nie szkodziły naszym relacjom i życiu zawodowemu. Cieszą mnie rozmowy takie jak nasza, bo zawsze mam nadzieję, że może trafię z przekazem do twórców rozwiązań AI, że namówię kogoś do refleksji. Pytanie, które powinniśmy sobie zadać jako ludzkość, jest takie: czy ważniejsze jest dla nas to, abyśmy uzyskiwali fast food informacyjny czy też abyśmy byli trochę mniej poinformowani, trochę wolniej działali, ale mieli silne więzi, poczucie, że tworzymy silną wspólnotę, społeczność, która ze sobą współpracuje i czuje się ze sobą dobrze? Często nie zauważamy kosztów, że to jest jednak coś za coś. Chcemy się ścigać z inni krajami w adaptacji narzędzi AI, stale mówimy o innowacjach, przyjmując założenie, że im więcej inteligentnej technologii, tym lepiej. Ale często zapominamy, że zapłacimy za to wysoką cenę. Prawda jest taka, że to od ludzi otrzymujemy znacznie mocniejsze wsparcie emocjonalne, nieporównywalne z tym, co może zaoferować nam nawet najbardziej zaawansowana maszyna.

Dr Konrad Maj – psycholog społeczny, kierownik Centrum HumanTech na Uniwersytecie SWPS, adiunkt w Zakładzie AI. Bada społeczne i psychologiczne aspekty nowych technologii, jest w Polsce pionierem badań eksperymentalnych interakcji robot–człowiek. Laureat konkursu „Popularyzator Nauki”.

Tekst ukazał się w magazynie PANI nr 02/2026