Zdrowy umysł w sieci algorytmów

Przejrzystość zaczyna się od prostych, konkretnych środków, takich jak ułatwienie użytkownikom zrozumienia, na co właściwie się zgadzają, gdy klikają na „Zgadzam się”. Wiele platform informacyjnych ukrywa tę informację w długich, liczących niekiedy po dwadzieścia stron warunkach świadczenia usług, napisanych ledwo dającą się odczytać czcionką, w sposób, którego nie da się zrozumieć. Ludzie zmuszeni są do wyboru pomiędzy dwiema poniżającymi opcjami: albo zgodzą się na coś, czego nie są w pełni świadomi, albo zanim zaczną korzystać z nowej platformy, spędzą wiele godzin, próbując zrozumieć te opasłe dokumenty. Ten narzucony wybór obraża ludzką godność.

Powyższy fragment pochodzi z książki Gerda Gigerenzera Zdrowy umysł w sieci algorytmów, której polskie wydanie ukazało się dwa miesiące temu i w cudowny sposób nakłada się na temat jednego z odcinków serialu Czarne Lustro, który miał premierę całkiem niedawno. Mowa o Joan jest okropna – bohaterka ponosi konsekwencje zaakceptowania umowy, której “przecież nikt nie czyta”. Gigerenzer postuluje, że powinniśmy wymóc na regulatorach, a ci na firmach technologicznych, żeby regulaminy usług i najważniejszych zasad mieściły się na jednej stronie. To być może jest pewien ideał, ale nie sposób odmówić mu racji. Stworzyliśmy regulacje, które są absurdalne. Regulaminy i akceptacje (np. “ciasteczka”), których całkowicie nikt nie czyta, więc można przemycić w nich wszystko, co wykorzystują oszuści. Klient i tak nie jest chroniony. Sytuacja przypomina tę, która jest mi bardzo bliska i dotyczy firm inwestycyjnych. Bezużyteczne ankiety adekwatności i świadomości ryzyka, przed niczym nie chronią klientów. Chronią wyłącznie firmy oraz dają zarobek coraz większej rzeszy prawników, którzy tworzą absurdalne i niepotrzebne zapisy.

Gerd Gigerenzer – niemiecki psycholog, znany jest ze swojej krytyki niektórych założeń eksperymentów prowadzonych przez Daniela Kahnemana i Amosa Tversky’ego, na podstawie których budowali swoją wizję finansów behawioralnych. Tym razem postanowił nieco “odczarować” świat technologii i rewolucji algorytmicznej, która zdaniem wielu – zmarginalizuje rolę człowieka, w wielu sektorach gospodarki.

Ciekawe, że polskie tłumaczenie ukazało się niemal dokładnie w momencie, gdy świat oszalał na punkcie ChatGPT, programu stworzonego przez firmę OpenAI, która udostępniła go do powszechnego użycia w listopadzie 2022. Od tamtego czasu, mamy – również w Polskich mediach – zalew tekstów o tym, że kolejne zawody będą niepotrzebne, bo ChatGPT i w ogóle sztuczna inteligencja zrobi za nas wszystko i to zrobi lepiej. Oczywiście wraz z kolejnymi miesiącami, okazywało się, że program jest – jak twórcy podkreślali wielokrotnie – wyłączenie modelem językowym i co prawda może robić wrażenie, to w jaki sposób odpowiada, wynajduje treści, podsumowuje i zestawia dane, ale również tworzy fałszywe źródła, podaje ewidentne bzdury, oraz w prosty sposób można wprowadzić automat w zakłopotanie, tak, że poda wykluczające się informacje. Podaje je jednak z taką pewnością siebie, że jeśli nie mamy choć trochę krytycznego nastawienia, możemy natychmiast uwierzyć w te informacje.
Oto przykład mojej “rozmowy” z ChatGPT dotyczącej żołny.

Choć dla autora nie jest to kluczowy temat, to jednak poświęca mu część swojej książki — czyli tego, w jaki sposób weryfikować dane, na które natrafiamy w sieci. Zwłaszcza, że technologiczny wyścig, który miał doprowadzić do tego, że będziemy mieli dostęp do najrzetelniejszych informacji, skręcił niebezpiecznie do świata, w którym mamy nadmiar informacji fałszywych. W dodatku praktycznie nie do rozróżnienia na pierwszy rzut oka. Zwraca też uwagę na coś, co od kilku lat było również moją refleksją. Mówiło się, że przyszłość należy do pokoleń “cyfrowych tubylców” – dzieciaków i młodzieży, które rosną wraz z siecią, mediami społecznościowymi, technologiami. Niestety badania pokazują, że to właśnie oni mają największy problem z rozróżnieniem, co w sieci jest treścią prawdziwa, co reklamą, a co zwykłą blagą (fake-newsem).

Cała książka bazuje na tezie, że algorytmy faktycznie świetnie się sprawdzają, w stabilnym i przewidywalnym świecie, ale nie tam gdzie pojawia się niepewność, zmiana i zaskoczenie. W takich sytuacjach najczęściej dochodzi do błędów, pomyłek, katastrof. Dodatkowo zaufanie części algorytmów, które korzystają z uczenia maszynowego, sprawia, że nie wiadomo do końca jakie są kryteria podejmowanych decyzji. I choć czasem robi wrażenie to, jak zaskakujące związki i korelacje są wyszukiwane, to jednak są to wyłącznie korelacje – te zaś mogą być przypadkowe i nonsensowne.

Kilkukrotnie Gigerenzer “rozbiera” na czynniki pierwsze to w jaki sposób oceniamy skuteczność i co tak naprawdę oznacza efektywność algorytmów na poziomie 80-90 procent. Z jednej strony może to robić wrażenie, ale mówimy o wielkich liczbach – na przykład przy algorytmach dotyczących rozpoznawania twarzy (w celu wykrycia potencjalnych przestępców).

Niemieckie ministerstwo spraw wewnętrznych zainstalowało systemy rozpoznawania twarzy na jednym z   berlińskich dworców kolejowych, aby przetestować dokładność tych urządzeń w   rozpoznawaniu podejrzanych. Po rocznym okresie pilotażowym ministerstwo w   komunikacie dla prasy obwieściło z   dumą dwa wyniki: osiemdziesięcioprocentową dokładność trafień, co oznacza, że na dziesięciu podejrzanych systemy poprawnie identyfikowały ośmiu, a   błędnie dwóch; oraz współczynnik fałszywych alarmów wynoszący 0,1 procent, co oznacza, że tylko jeden na tysiąc przechodniów został omyłkowo wzięty za podejrzanego. Minister uznał system za wielki sukces i   głosił, że ogólnokrajowy nadzór jest wykonalny i   pożądany.

[..]

zastanówmy się nad tym, co by się stało, gdyby takie systemy rozpoznawania twarzy zostały szeroko zaimplementowane. Każdego dnia przez dworce kolejowe Niemiec przewija się około dwanaście milionów pasażerów. Pomijając kilkuset poszukiwanych podejrzanych, są to normalni ludzie zdążający do pracy lub podróżujący dla przyjemności. Robiący wrażenie niski wskaźnik fałszywych wyników pozytywnych wynoszący 0,1 procent przekłada się na prawie 12 tysięcy przechodniów dziennie, którzy zostaliby fałszywie zidentyfikowani jako podejrzani. Każdy z   nich musiałby zostać zatrzymany, przeszukany na okoliczność posiadania broni lub narkotyków i   być może aresztowany do czasu potwierdzenia tożsamości.

Dwanaście tysięcy osób dziennie, których tożsamość trzeba sprawdzić, zweryfikować. Do tego potrzebni są ludzie, sprzęt, czas. To możliwe, ale budujemy państwa policyjne, w którym należy się liczyć, że algorytmy nas “błędnie” rozpoznają jako zagrożenie, w ramach swojej niezwykle wysokiej skuteczności.

Mimo wielu ciekawych spostrzeżeń, mam wrażenie, że Gigerenzer sam daje się ponosić czasami nieco zbyt dużym uproszczeniom (np, tam gdzie pisze o rynkach finansowych)i brakiem odwołań do danych, czy wręcz nierealnym ideom. W pewnym momencie pisze o podejściu firm ubezpieczeniowych, które uśredniając dane dla populacji mogą “krzywdzić” pojedyncze osoby, które nie zachowują się tak jak mówi średnia. I sugeruje, że w dobie zbierania danych przez samochody, smartfony można stworzyć indywidualne profile, które byłyby podstawą do ustalenia stawki ubezpieczeń. Ale tym razem sam zapomina, że to oznacza naprawdę ogromne zindywidualizowanie branży, a to kosztuje czas i zasoby. Ponadto w ramach obrony swojego pomysłu stwierdza, że “według stereotypu młodzi kierowcy są nieostrożni, zbyt pewni siebie i   stanowią ryzyko ubezpieczeniowe. Rzeczywiście w   przypadku niektórych tak jest, ale w   przypadku wielu innych  – nie.

Wiadomo, że nie cała populacja będzie jednorodna. Ale jak pokazuję dane i doświadczenia Innogy Polska, młodzi jako grupa ewidentnie podejmują bardziej ryzykowne zachowania. (Samochody, inwestowanie, ryzyko). Nie wszyscy, ale jednak lepiej się zabezpieczyć.

Miałem też wrażenie, że autor chyba nie sprawdza dokładnie tego, jak szybki jest w tej chwili postęp w robotyce  i technologii.

Nadal trudno jest zbudować robota, który poruszałby palcami tak biegle jak skrzypek, lub robota sprzątającego, który sprawiałby się we wszystkich zadaniach tak dobrze jak człowiek. Z   powodu braku tych umiejętności rozwiązaniem mogłoby być zaprojektowanie na nowo naszego otoczenia życiowego tak, by je dopasować do zdolności AI.

Roboty sprzątające to już w zasadzie codzienność. Nie tylko w wielkich halach, które faktycznie można zaprojektować pod tym kątem, ale już w domach, hotelach, trawnikach. W 2007 roku Toyota zaprezentowała humanoidalnego robota grającego na skrzypcach. Oczywiście nie była to jeszcze wirtuozeria ludzkich muzyków, ale postęp jest naprawdę ogromny. Jednak poza tym drobnostkami Zdrowy umysł w sieci algorytmów zwraca uwagę na wiele niezmiernie ważnych aspektów naszego funkcjonowania w świecie naszpikowanym technologiami, ale bez katastrofizowania, że oto nadszedł kres ludzkiej cywilizacji.

Kiedyś marzono, że internet ofiaruje nam wolność; dzisiaj dla wielu wolność oznacza darmowy internet.
Od niepamiętnych czasów ludzie tworzą imponujące nowe technologie, z   których jednak nie zawsze umieją mądrze korzystać. Jeśli chcemy czerpać rozliczne korzyści z   technologii cyfrowej, powinniśmy się nauczyć myśleć w   świecie, który próbuje myśleć za nas. Nie możemy sobie pozwolić na beztroskę, ale musimy być czujni i   zachowywać kontrolę.

[Foto, źródło]

Zdrowy umysł w sieci algorytmów, G. Gigerenzer

Zdrowy umysł w sieci algorytmów, Gerd Gigerenzer

Wyd.: Copernicus Center Press, 2023

Tłum.: Tadeusz Chawziuk

 

2 komentarze do “Zdrowy umysł w sieci algorytmów”

  1. Temat, który ostatnio też mnie intryguje, a widziałam tę książkę w zapowiedziach. bardzo się obawiam tego, że nie będziemy już w stanie zweryfikować podawanych nam informacji (AI też przecież może generować fake newsy), dlatego czerpanie info tylko z netu (a wiele osób przecież dziś na tym poprzestaje) to bardzo zły pomysł. Trzeba czytać książki (a i te weryfikować) o ironio losu, bo przecież internet miał zabić czytelnictwo. Bardzo skomplikowany świat sobie zgotowaliśmy.

    1. Będzie bardzo trudno weryfikować. Bardzo. Bo to będzie wymagało (coraz cześciej) szukania w źródłach nie-sieciowych. A dostęp do nich też nie jest łatwiejszy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *