Trend przewidziany jakiś czas temu ale aktualny dzisiaj nawet bardziej.
To co się zmieniło to powszechne obecnie orzekonanie, że naszych kont egzemplifikujących nasze przekonania i myśli algorytm f: używa jak mu potrzeba w danym momencie. Konkluzja obecna: medium f: przestaje być powszechnym trybem komunikacji. Przyszłość nie wydaje się byc różowa…
Konkurencja w dziedzinie wpływu na masy rośnie i wywołuje emocje wśród głownych graczy. Manifest Facebooka formułowany przez Marka Zuckerberga mówi o zwiększeniu zdolności człowieka do budowania i utrzymywania relacji (z drugim człowiekiem). Nie sposób jednak oprzeć się wrażeniu, że Facebook staje się powoli globalnym narzędziem do wpływania na relacje, kierowanym algorytmami inżynierii społecznej.
Jednym przełomowych zdarzeń uzasadniających opinię Leonida Bershidskiego (Wiedomosti) powieloną przez Bloomberga jest m.in. ostatnia gorzka dla Amerykanów prezydencka kampania wyborcza Trumpa. Swoiście pojęta eksterytorialność Facebooka nie powiększyła empatii i zdolności do polepszania relacji: Facebook spowodował wręcz odwrotne od założonych reakcje: głęboką polaryzację postaw i w konsekwencji relacji międzyludzkich. Czy to było celem Zuckerberga czy raczej algorytm wyrwał się spod kontroli?
W deklaracji Facebooka dołączonej do prospektu emisyjnego spółki w 2012 skierowanej do inwestorów, Zuckerberg opisywał cel firmy mówiąc m.in., że „tworzenie bardziej otwartej kultury prowadzi do lepszego zrozumienia życia i perspektywy innych.
Uważamy, że stwarza to większą liczbę silniejszych związków między ludźmi, i że pomaga uzyskać wielość punktów widzenia.(…) Uważamy, że infrastruktura informatyczna na świecie powinien przypominać wertykalną sieć społeczną, zamiast monolitycznego układu, który istniał do tej pory.”
Węgierski biznesmen George SOROS stawia tezę, że – firmy z branży mediów społecznościowych wpływają na to, jak ludzie myślą i się zachowują i nie zdają sobie z tego przy tym sprawy. Celowo projektują uzależnienie od usług, które świadczą. Może to być bardzo szkodliwe, szczególnie dla młodzieży. Istnieje podobieństwo między platformami internetowymi a przedsiębiorstwami gier hazardowych – podkreślał Soros.
Infantylizacja relacji, zazdrość, depresja
Jak się dzisiaj wydaje, założenia tego nie udało się zrealizować. Zamiast tworzyć silniejsze relacje, Facebook zrodził niepokoje i stał się powodem sui generis uzależnień, które są przedmiotem zainteresowania oraz badań naukowych na całym świecie. Wyniki niektórych badań dowodzą wprost, że Facebook zmniejsza zadowolenie z życia użytkownika.
Duński eksperyment z 2015 roku, polegający na porównaniu zachowań i odczuć grupy używającej Facebooka z grupą odsuniętych od sieci, wykazał że ponad połowa użytkowników jest zazdrosna o rodzaj zasad głoszonych przez innych użytkowników i możliwość ich propagacji. Podobnie ma się z grupą młodych matek, które poprzez Facebooka chcą budować opinię o sobie jako dobrych rodzicach – w przypadku braku takich reakcji z sieci, często pojawia się depresja.
Konteneryzacja odbiorcy
Ujawnione skutki oddziaływania Facebooka odnoszą się również do sfery soc-narzędziowiej. W skrócie polega to na tym, aby ściągać użytkowników do kontenerów (hubów) ideologicznych, przebywanie w których wzmacnia ich wybory. Kolejnym etapem jest działanie algorytmu tworzącego kanał informacyjny dostosowany do uprzednio zdefiniowanych potrzeb użytkownika.
Algorytm priorytetyzujący wynika z aktywności i wskazywania użytkownikowi potwierdzających jego preferencję lajków. Buduje się w ten sposób bańka powstająca po założeniu filtra wzmacniającego emocjonalne a nie racjonalne argumentowanie rzeczywistości.
Hub przekonań predefiniowany
Algorytmiczna ingerencja polegająca na wcześniej opisanych prewencjach daje najlepsze efekty w kampaniach komercyjnych i politycznych. Najbardziej zaangażowani: firmy lub politycy, mają większe szanse na sukces niż nieobecni. Ponieważ jednak algorytm Zuckerberga żywi się również ilościowo, populizm zdaje się mieć otwarta drogę do sukcesu. Argumenty racjonalne zaczynają odpadać a rolę wiodącą przejmują emocje ubrane w fasadę normalnej argumentacji – emocje skonteneryzowane w poszczególne huby.
Narzędzie wpływu
Ingerencja algorytmiczna jest w istocie narzędziem wpływu. Facebook sortuje więc użytkowników wg kluczy oraz opakowuje ich w huby. Rzecz w tym, że użytkownicy nie znają ani zasad algorytmizacji ani też nie mają wpływu na własną obecność w danej kategorii kontenera, nie mówiąc już o jakiejkolwiek decyzji o akcesie lub odmowie.
Być może niejakim światełkiem w tunelu jest praca Facebooka nad sztuczną inteligencją, która będzie w stanie identyfikować negatywne przekazy użytkowników sieci. Jednak jak mają działać takie filtry nikt nie wie. Zasada nadal musi opierać się na predefinicjach a więc zdecydowaniu za użytkownika co jest dobre. Co jest nagością? Co jest pornografią? Co jest wulgaryzmem? Co jest wartością? Odpowiedzi na te pytania są ostre jedynie w wypadku uznania za obowiązujący jakiegoś systemu etycznego czy religijnego. Problem jednak co ma zostać zapisane w definicji?
Prawdziwy wpływ będą więc mieli nie programiści i informatycy tylko ideolodzy, którzy zdefiniują zasady. Na pytanie „czym jest prawda?” nadal nie ma jednoznacznej odpowiedzi, czyli wg obecnej metodyki poszukiwania odpowiedzi – Facebook, póki co – nie odpowiada na to pytanie. Na marginesie można dodać, że ostatnia próbą całościowego zdefiniowania zasad był marksizm, który w uproszczeniu twierdził, że „wie”. Słynny test czarnego kota wchodzącego do pokoju będącego ciemnią absolutną dobitnie ilustruje jednak upadek podejścia marksistowskiego.
Użytkownik czy system definiuje?
Zuckerberg potwierdza, że to użytkownik będzie decydował w osobistych ustawieniach, co do zasad jakim posługuje się w jego przypadku algorytm. Nie będzie więc ustaleń osobistych i obecnie częstych próśb aby nie komentować w postów lub kasowania przez niezadowolonych użytkowników komentarzy. Co jednak z tymi, którzy nie zdefiniują swoich zasad?
Ci właśnie będą podlegali automatyzacji i definicji obecnej już w algorytmie. Decyzja odnośnie do tych użytkowników będzie więc podjęta za nich, przez system AI. Dla tych, którzy nie mogą podjąć decyzji, funkcja domyślna będzie automatyczna, jak dla większości na danym terytorium, lub wg dowolnego klucza. To będzie jak z góry napisany wynik referendum, obowiązujący do momentu, kiedy użytkownik tego nie zmieni. Problem w tym, co oznacza sytuacja kiedy większości użytkowników nie będzie się chciało nic zmieniać lub po prostu nie zauważą różnicy? AI zadecyduje za nich. Tak będzie z większością.
A mniejszość? Ci, którzy używają filtrów nie będą mieli dużo lepiej. Dlaczego? Nikt nie wie, co i jak jest filtrowane, ponieważ algorytmy Facebooka są jak wspomniane marksistowskie czarne pudełko z kotem w środku.
Naprawdę czy na niby?
Wersja demokracji proponowana przez Zuckerberga usiłuje stworzyć dla globalnej społeczności nowe zasady porządku publicznego, zdefiniowane wg nieznanych reguł. Posługiwanie się definicjami „demokracji” czy „referendum” w sieci musi opierać się na informacji o masowych zrachowaniach użytkowników. Dopiero jednak Facebook będzie decydował o typach i treściach, które zostaną uznane za wartościowe i dopuszczone do publicznego obiegu. W ostateczności stanie się dynamicznym narzędziem wpływu na nastroje i zachowania ludzi.
Istnieje więc niebezpieczeństwo stworzenia demona, który w oderwaniu od realnego świata będzie decydował co jest dobre, co należy kupić, kogo należy popierać. Już teraz w Kenii są całe wsie pogrupowane w huby WhatsApp, gdzie wirtualna społeczność staje się alternatywą dla rzeczywistości. Od tego już tylko krok do fikcji, która jest traktowana jako rzeczywistość. Liczyć się będzie nie to kim jesteś ale to, jako kto jesteś odbierany.
Czy zasada wyszukiwania w Google: „pomiń sugestie Facebooka” stanie się najważniejszą zasadą eksploracji Internetu?
Sourced: Leonid BERSHIDSKY / Bloomberg / Foto The Altantic Ozge Elif Kizil / Anadolu Agency / Getty