Is Google making us stupid, or programmable?

Data: 2016-04-19
Autor: Sebastian Konkol
Is Google making us stupid, or programmable?

Ostatnio wpadł mi w ręce rewelacyjny technotriller, „Zero” Marca Elberga. Niby fikcja literacka, ale że umysł inżyniera pracuje zawsze, to skojarzyło mi się z naszą rzeczywistością. Czy już zasługuję na zawodowy tytuł Professional Paranoic? Oceńcie sami.

Krok 1. Dane

Sama powieść, „Zero”, to raczej nieprzyjemna, wręcz fatalistyczna wizja władzy, jaką mógłby uzyskać ktoś, kto miałby dostęp do dużego, naprawdę dużego wolumenu danych opisujących wszelkie aspekty życia każdego człowieka. Marc Elberg przedstawił bardzo frapującą możliwość uzyskania takich danych – powołał do fikcyjnego życia firmę, której celem działania było dostarczanie użytkownikom smartfonów aplikacji, personalnych doradców w każdej możliwej sferze życia, od „Jak masz schudnąć?”, przez „Jak Go poderwać?”, po „Jak stać się lepszym człowiekiem?”. Piękne, prawda? Ludzie setkami milionów „rzucili się” na te aplikacje, oddając – z chęcią, bez przymusu, a nawet z entuzjazmem – tyle danych o sobie, ile tylko mogli. Okazuje się jednak, że gromadzenie takich danych dawało tej firmie – na bazie wnioskowania statystycznego – niemalże nieograniczone możliwości wpływania na ludzi, firm i państw. Nie będę wchodził w głębsze szczegóły, żeby nie psuć wrażeń czytelnikom.

Dla równowagi, o ile nie zawodzi mnie wyczucie wnioskowania statystycznego, tworzenie algorytmów tak potężnych, aby ingerowały w każdą sferę życia każdej jednostki, byłoby – póki co – niezasadne, bo brakowałoby reprezentatywnego materiału porównawczego. Gdyby jednak takie możliwości istniały, nie trudno sobie wyobrazić, jakie podmioty byłyby żywotnie zainteresowane ich wykorzystaniem… Według Marca Elsberga naszą obroną przed taką inwigilacją jest różnorodność, bo różnimy się na tyle, żeby nie dało się wywnioskować, jak się zachowamy, jakie decyzje podejmiemy. Mamy być po ludzku nieprzewidywalni.

Krok 2. Przewidywalność

Odkąd pojawił się termin AI (Artificial Intelligence), prowadzona jest dyskusja o tym, co jest podstawą dla takiego bytu. Inteligencja obliczeniowa radzi sobie bowiem całkiem dobrze w sferze optymalizacji i wyciągania wniosków, stosując jako kryteria racjonalizm. Zaryzykowałbym nawet, że w sferze kierowania się racjonalnością AI będzie zawsze lepsze od człowieka. „Problem z człowiekiem” polega jednak na tym, że ludzie nie podejmują decyzji racjonalnie – na takie procesy wpływają emocje (stany chwilowe), wcześniejsze doświadczenia (uprzedzenia, stronniczość), procesy podświadome (intuicja, system wartości). W efekcie decyzje podejmowane – przy tych samych danych decyzyjnych – przez różnych ludzi, a nawet przez tych samych ale w innym momencie, będą po prostu inne, niedeterministycznie. Okropna cecha Homo sapiens, ale nie jedyna.

Człowiek uczy się przez całe życie, nawet jeśli tego nie chce. Procesy poznawcze działają tak długo, jak działa mózg. Uczenie – świadome, czy nieświadome – wynika z powtarzania wzorców, a te częściej powtarzane są lepiej utrwalane. Jak silne są to procesy wiemy – „kłamstwo powtarzane odpowiednio często staje się prawdą”. To po prostu znajomość raczej podstawowych procesów poznawczych.

Już słyszę, „no tak, ale przecież możemy się przed tym bronić!”. Owszem, ale musimy (a) dostrzec „zagrożenie” oraz (b) chcieć się bronić. Cała praktyka NLS (Neuro-Linguistic Seduction, jedna z aplikacji NLP) pokazuje jak obchodzić mechanizmy wykrywania zagrożenia w sferze uwodzenia. Elsberg pokazał, jak prostym „wytrychem” można wyłączyć chęć obrony. Moim zdaniem trzeba wykazać naprawdę rzadko spotykany hart ducha, aby zacząć się bronić, nie mówiąc już o skuteczności. W sumie, gdyby to było takie łatwe, to pojęcie reklamy po prostu nie miałoby ekonomicznego sensu.

Człowiek jest istotą programowalną i to w całkiem łatwy sposób. I tu objawia się rola Google. Chcemy nauczyć konkretne jednostki określonych zachowań? Serwujmy mu, w „wynikach wyszukiwania” w określonym kontekście konsekwentnie ten sam zestaw skojarzeń – człowiek poddany takim manipulacjom nawet nie zauważy, że zapisuje mu się to w podświadomości. Skojarzenie takie jednak będzie wywierać wpływ w procesach decyzyjnych, a im mocniejsze (częstsze, z dłuższą ekspozycją), tym ten wpływ będzie większy. Dzisiaj, oficjalnie, wykorzystywane w celach reklamowych, ale czy na pewno?

Krok 3. Etyka

Google to narzędzie, jak siekiera czy młotek, choć znacząco bardziej skomplikowane. Jak każde narzędzie może być użyte etycznie lub pomijać zagadnienia etyki. Co więcej, Google to narzędzie, którego wykorzystanie dla nieetycznych celów nie musi być sponsorowane, a nawet dostrzegane przez Google, o czym świadczy choćby przykład ukrywania wydarzeń. Bardzo dobitnie świadczy. Ludzkość dysponuje coraz potężniejszymi narzędziami, a jednocześnie coraz mniej etycznie i coraz bardziej nierozważnie się zachowuje. Liczymy na to, że w głowach ludzi dzierżących władzę odezwie się sumienie?

Typowym, często powtarzanym hasłem w dyskusjach o potrzebie sprawowania nadzoru jest “pre-crime”. Wszak, gdybyśmy wiedzieli, z wystarczająco dużą pewnością, co będą robili złoczyńcy, moglibyśmy przeciwdziałać. Jeśli ktoś w to wierzy, to współczuję. Nie będziemy wiedzieć, a sam mechanizm będzie wykorzystywany do zupełnie czegoś innego – taka jest już właśnie etyka Homo sapiens. Całą ideę “precrime” zdyskredytował Philip K. Dick w swej publikacji z roku 1956, “The Minority Report”. Może, gdybyśmy – jako gatunek – reprezentowali moralność Spocka, mielibyśmy jakieś szanse. Podmiotów działających nieetycznie jest wystarczająco dużo, aby możliwości wykorzystania narzędzi klasy Google stanowiły zagrożenie. Czy tak trudno sobie wyobrazić, że jakiś podmiot – dla uzyskania własnych korzyści – przeprogramuje część podatnych na to użytkowników Google i zamiast precrime będzie false-crime? Albo przykrywka dla prawdziwego crime? Wystarczy, że wyeliminuje się z ludzkiego zachowania czynnik nieprzewidywalności i zastąpi racjonalnym podejmowaniem decyzji.

Złóżmy więc w całość paranoiczną wizję. Ludzie zadziwiająco chętnie, bez oporów i obaw, a nawet bez refleksji upubliczniają wszystko, co tylko mogą. Za pomocą Google można ludzi zaprogramować, niezauważalnie i stosunkowo łatwo. Nie brakuje na świecie podmiotów, których pojęcie etyki jest wystarczająco wypaczone, aby podjąć się takich działań.

Krok 4. Czy aby na pewno paranoja?

Na nasze szczęście do zrealizowania takiego przedsięwzięcia trzeba kupę czasu i jeszcze więcej kasy. Nie jest też tak łatwo przewidzieć (sic!), jakie zachowania będą potrzebne w nieokreślonej przyszłości. No i ludzie mają tendencje do zapominania, co osłabia efekty działania mechanizmów „wypalania skojarzeń”. Są jednak podmioty, które dysponują takimi środkami i mogłoby im się chcieć w sytuacjach wystarczająco interesujących.

Za moich studenckich czasów, w ramach wykładów dotyczących baz danych, opisywane były mechanizmy baz danych zapewniających ograniczenia wnioskowania statystycznego. Chodziło o to, aby – na podstawie wyników zapytań zagregowanych – nie można było uzyskać wiedzy o pojedynczych obiektach. Może trzeba do tego powrócić?

 

Najbardziej niepokojąca jest jednak myśl przekazana przez Marca Elsberga: „ludzie i tak zdecydują się na wygodę za cenę wolności i niezależności – bo i tak nie wiedzieliby co z nimi zrobić”. To jak – paranoja, czy jednak nie?

Pozostaw komentarz