Psychometria Michaiła Kozińskiego. Michał Kosiński: nie zauważymy, jak sztuczna inteligencja zawładnie światem

Rosja planuje wprowadzić system oceny zdolności kredytowej kredytobiorców przy użyciu modeli psychometrycznych w 2018 roku, powiedział starszy wiceprezes Sberbanku Alexander Vedyakhin.

„Myślę, że w 2018 roku już to nastąpi. Idealną opcją jest twarz, numer telefonu, abyśmy zrozumieli, kto, wszystkie ślady, wszystkie źródła, aby stało się jasne, jaka to osoba, a jeśli lubi różańce więzienne i Włodzimierza Centralnego, to tak mało prawdopodobne, aby natychmiast zatwierdził pożyczkę. Najprawdopodobniej musimy się nad czymś ponownie zastanowić” – powiedział Wiedyachin (cytowany przez Interfax).

Sbierbank przewiduje pojawienie się humanoidalnych robotów za 10–15 lat

Za 10-15 lat pojawią się roboty z Androidem z uniwersalną sztuczną inteligencją, powiedział Vedyakhin. Według niego, istniejących systemów sztuczna inteligencja ogranicza się do konkretnych, konkretnych zadań postawionych przez twórców, a roboty humanoidalne zostaną wyposażone w uniwersalną inteligencję. Takie humanoidalne roboty można wykorzystać w niemal każdej dziedzinie – powiedział Vedyakhin. Jednocześnie można je nauczyć naśladowania ludzkich emocji.

Według najwyższego menedżera trwa już pilotażowy projekt dotyczący punktacji psychologicznej, w którym uczestniczy „ograniczona próba” klientów, którzy wyrazili na to zgodę. „W pełni przestrzegamy przepisów dotyczących ochrony danych osobowych, dlatego w tym kierunku pracujemy. To prototyp, który badamy wewnętrznie, ale tutaj potrzebujemy pełnej zgody klientów” – powiedział starszy wiceprezes Sbierbanku.

Wiedyakhin wyjaśnił, że punktacja psychometryczna będzie prowadzona w oparciu o metodę opracowaną przez polskiego badacza Michaiła Kosińskiego. Kosiński jest czołowym ekspertem w dziedzinie psychometrii, gałęzi psychologii opartej na analizie danych. Opracował system, który analizując działania użytkowników w sieć społeczna, stanowi psychologiczny portret człowieka.

O badaniu przeprowadzonym przez naukowców z uniwersytetów Cambridge i Stanford napisał „Financial Times”. Naukowcy doszli do wniosku, że profil użytkownika opiera się na jego polubieniach w sieci społecznościowej Facebook, lepiej opisuje jego osobowość, niż robią to nawet najbliżsi mu ludzie. Uniwersytety w Cambridge i Stanford wykazały, że komputer lepiej opisał osobowość danej osoby niż kolega po przeanalizowaniu zaledwie 10 polubień, przyjaciel po 70 polubieniach, krewny po 150 polubieniach i niż małżonek po 300 polubieniach. Średnia wg Facebook liczba „polubień” na użytkownika wynosi 227, zauważa FT.

David Stillwell i Michał Kosiński z Uniwersytetu w Cambridge (Wielka Brytania) opracowali program komputerowy, który może „obliczyć” cechy osobowości i charakter użytkownika, koncentrując się na „lajkach” pozostawionych przez niego w sieciach społecznościowych. Co więcej, zdaniem twórców, nowy algorytm robi to znacznie dokładniej niż prawdziwi ludzie.

„Zdolność do oceny osobowości danej osoby jest kamieniem węgielnym naszego życia społecznego, począwszy od działań społecznych, które podejmujemy każdego dnia, po długoterminowe decyzje, takie jak to, kogo poślubić, komu ufać, kogo zatrudnić lub wybrać na prezydenta”, ” komentuje David Stillwell „Wyniki takich algorytmów mogą znacząco pomóc nam w dokonaniu właściwego wyboru”.

To nie pierwsze tego typu przedsięwzięcie Kosińskiego i Stilwella. W 2013 roku zaprezentowali program, który niemal dokładnie określał na podstawie „lajków” takie cechy, jak wiek, rasa, orientacja seksualna i IQ użytkowników Facebooka.

Nowa wersja oprogramowania, na podstawie „lajków” umieszczanych pod postami, potrafi identyfikować użytkowników według pięciu kryteriów stosowanych przez zachodnich psychologów do badania modeli osobowości człowieka: ugodowości, otwartości, sumienności, stabilności emocjonalnej i ekstrawersji.

Aby przetestować dokładność algorytmu, badacze stworzyli specjalną aplikację do gier na Facebooku – myPersonality. Podczas pracy z nim użytkownicy zostali poproszeni o udzielenie odpowiedzi na szereg pytań dotyczących ich światopoglądu, a także ocenę cech charakteru jednego lub większej liczby swoich „znajomych” w sieci społecznościowej.

Łącznie aplikację pobrało 87 tys., zaś 17 tys. było „znajomymi” na Facebooku lub znało się w prawdziwe życie.

Okazało się coś niesamowitego: wirtualny program poradził sobie z zadaniem identyfikacji osoby znacznie lepiej niż wirtualni i prawdziwi przyjaciele i znajomi tej osoby! Program potrzebował jedynie 10 „polubień”, aby móc dokładniej ocenić osobowość danej osoby niż jego koledzy z pracy, 70 „polubień”, aby przekroczyć wskaźniki znajomych i 150 krewnych.

Wynik ten pozostawia niejednoznaczne wrażenia. Z jednej strony, jak twierdzą eksperci, analiza „lajków” może pomóc nam stworzyć dokładniejszy portret osoby, z którą będziemy robić interesy – w życie osobiste do pracy, do biznesu i tak dalej.

Z drugiej strony kwestionuje bezpieczeństwo danych osobowych w Internecie, bo jeśli ktoś zdecyduje się skorzystać z programu, może dowiedzieć się o nas więcej, niż byśmy chcieli... Z czasem może to nawet zmusić ludzi do ograniczenia ich wykorzystania sieci społecznościowych.

Ostatnio przeprowadzono wiele badań, które próbowały badać ludzi na podstawie tego, jak zachowują się w Internecie. Dlatego niedawno naukowcy z Uniwersytetu Ohio doszli do wniosku, że mężczyźni, którzy lubią publikować selfie na portalach społecznościowych, są podatni na zachowania aspołeczne.

Do udziału w badaniu zrekrutowano około 800 mężczyzn w wieku od 18 do 40 lat. Wszystkich uczestników poproszono o odpowiedź na pytanie, jak często publikują swoje zdjęcia w sieciach społecznościowych. Wypełniali także ankiety, z których naukowcy wyciągali wnioski na temat ich zachowań społecznych i samouprzedmiotowienia (dbałości o własny wygląd).

W sobotę magazyn szwajcarski Magazyn Das opublikował badanie mające na celu sprawdzenie, w jaki sposób technologie reklam spersonalizowanych na Facebooku wpłynęły na wyniki wyborów w USA i referendum w sprawie wyjścia Wielkiej Brytanii z UE. Jak zauważa niemiecki Spiegel, wielu dziennikarzy zaczęło już nazywać śledztwo „tekstem roku”.Ma wszystko: i Najnowsze technologie; i broń uniwersalna, z której pochodzi dobre ręce za źle; i codzienna inwigilacja każdego z nas; i tajemniczy klienci; i przemiana z biedaka w księcia (i odwrotnie). The Insider publikuje pełne tłumaczenie tekstu z języka niemieckiego.

9 listopada o wpół do ósmej rano Michał Koziński obudził się w hotelu Sunnehus w Zurychu. 34-letni naukowiec wystąpił w Federalnej Wyższej Szkole Technicznej (ETH) na konferencji na temat zagrożeń związanych z Big Data i tzw. „rewolucją cyfrową”. Koziński podróżuje po całym świecie z podobnymi wykładami, bo jest czołowym ekspertem w dziedzinie psychometrii – gałęzi psychologii opartej na analizie danych. Włączając telewizor tego ranka, zdał sobie sprawę: wybuchła bomba. Donald Trump został wybrany na prezydenta Stanów Zjednoczonych, wbrew wszelkim przewidywaniom socjologów.

Koziński długo śledzi wiadomości o triumfie Trumpa, o wynikach głosowania w różnych stanach. Podejrzewa, że ​​to, co się wydarzyło, ma jakiś związek z jego osiągnięciami naukowymi. Koziński wzdycha i wyłącza telewizor.

Tego samego dnia mało znana wcześniej londyńska firma rozsyła komunikat prasowy, w którym czytamy: „Jesteśmy zdumieni, że nasze rewolucyjne podejście do komunikacji opartej na danych w tak znaczący sposób przyczyniło się do zwycięstwa Donalda Trumpa”. Komunikat prasowy został podpisany przez niejakiego Alexandra Jamesa Ashburnera Nixa. Ma 41 lat, jest Brytyjczykiem i szefem Cambridge Analytica. Nicks zawsze nosi garnitur, modne okulary w rogowej oprawie i zazwyczaj czesze do tyłu swoje blond falowane włosy.

Rozmyślający Koziński, smukły Knicks i szeroko uśmiechnięty Trump – pierwszy umożliwił cyfrową rewolucję, drugi ją przeprowadził, ostatni dzięki niej został zwycięzcą.

Jak niebezpieczne są Big Data?

Teraz każdy, kto nie mieszkał na Księżycu przez ostatnie pięć lat, zna termin Big Data. Termin ten oznacza również, że wszystko, co robimy – w Internecie czy „offline” – pozostawia cyfrowy ślad. Zakup kartą kredytową, wyszukiwanie w Google, spacer ze smartfonem w kieszeni, każde polubienie w sieci społecznościowej: wszystko to zostaje zapisane. Przez długi czas nikt nie był w stanie zrozumieć, co dobrego mogą zdziałać te dane – z wyjątkiem sytuacji, gdy na Facebooku pojawiają się reklamy leków na nadciśnienie, ponieważ niedawno wpisaliśmy w Google „jak obniżyć ciśnienie krwi”. Nie było też jasne, czym Big Data jest dla ludzkości – wielkim zagrożeniem czy wielkim osiągnięciem? Ale od 9 listopada znamy odpowiedź na to pytanie. W końcu za kampanią wyborczą Trumpa w Internecie i kampanią na rzecz Brexitu stoi ta sama firma, która bada Big Data: Cambridge Analytica i jej dyrektor Alexander Nix. Każdy, kto chce zrozumieć naturę tych głosowań (i charakter tego, co czeka Europę w nadchodzących miesiącach), musi zacząć od niezwykłego wydarzenia, które miało miejsce w 2014 roku na Uniwersytecie w Cambridge w Wielkiej Brytanii. Mianowicie na Wydziale Psychometrii Kozińskiego.

Psychometria, czasami nazywana psychografią, jest próbą pomiaru osobowości człowieka. We współczesnej psychologii standardem jest tak zwana „metoda oceaniczna” (pisana jako OCEAN, anagram pięciu wymiarów język angielski). W latach 80. dwóch psychologów udowodniło, że każdą cechę osobowości można zmierzyć za pomocą pięciu wymiarów. Są to tak zwana „Wielka Piątka”: otwartość (jak bardzo jesteś chętny do próbowania nowych rzeczy), sumienność (jak bardzo jesteś perfekcjonistą), ekstrawersja (jak odnosisz się do społeczeństwa), ugodowość (jak przyjacielski i chętny do współpracy jesteś) są) i neurotyzm (jak łatwo wpadasz w złość) od siebie) Na podstawie tych pomiarów możesz dokładnie zrozumieć, z jaką osobą masz do czynienia, jakie ma pragnienia i obawy, i wreszcie, jak może się zachować. Problem polegał na zbieraniu danych: aby dowiedzieć się czegoś o danej osobie, trzeba było wypełnić ogromną ankietę. Ale potem był Internet, potem Facebook, potem Koziński.

W 2008 roku rozpoczął pracę student z Warszawy Michał Koziński nowe życie: wstąpił do prestiżowego angielskiego Cambridge, Centrum Psychometrii, Laboratorium Cavendish, pierwszego laboratorium psychometrycznego na świecie. Wraz z kolegami z klasy wymyślił i uruchomił aplikację na Facebooku o nazwie MyPersonality. Użytkownik został poproszony o udzielenie odpowiedzi na ogromną listę pytań („Czy łatwo wpadasz w złość, gdy jesteś pod wpływem stresu? Czy masz tendencję do krytykowania innych?”), a następnie o otrzymanie jego „profilu osobowości”, a twórcy aplikacji otrzymali bezcenne dane osobowe. Zamiast oczekiwanych danych o kilkunastu kolegach z klasy, twórcy otrzymali informacje o setkach, tysiącach, a potem milionach osób. W ten sposób dwóch doktorantów zebrało największy „zbiór” danych w historii badań psychologicznych.

Proces, który Kozinsky i jego współpracownicy opracowali w ciągu następnych kilku lat, jest dość prosty. W pierwszej kolejności zdający otrzymuje listę pytań, czyli test online. Na podstawie odpowiedzi naukowcy obliczają osobiste wartości osoby badanej. Następnie Kozinsky i jego zespół badają działania podmiotu: polubienia i reposty na Facebooku, a także jego płeć, wiek i miejsce zamieszkania. W ten sposób badacze uzyskują połączenia. Prosta analiza danych online może dostarczyć niezwykłych spostrzeżeń. Przykładowo, jeśli mężczyzna śledzi stronę marki kosmetyków MAC, istnieje duże prawdopodobieństwo, że jest gejem. Wręcz przeciwnie, silnym wskaźnikiem heteroseksualności jest to, czy dana osoba lubiła grupę hiphopową Wu-Tang Clan z Nowego Jorku. Fan Lady Gagi to najprawdopodobniej ekstrawertyk, a osoba lubiąca posty filozoficzne to introwertyk.

Analiza 68 polubień na Facebooku wystarczy, aby określić kolor skóry badanej osoby (95% prawdopodobieństwa), homoseksualizm (88% prawdopodobieństwa) oraz przynależność do Partii Demokratycznej lub Republikańskiej

Koziński i jego współpracownicy stale udoskonalali swój model. W 2012 roku Kozinsky udowodnił, że analiza 68 polubień na Facebooku wystarczy, aby określić kolor skóry badanej osoby (z prawdopodobieństwem 95%), jego homoseksualizm (prawdopodobieństwo 88%) oraz przynależność do Partii Demokratycznej lub Republikańskiej Stanów Zjednoczonych (prawdopodobieństwo 85%). ). Ale proces idzie dalej: rozwój intelektualny, preferencje religijne, uzależnienie od alkoholu, palenia czy narkotyków. Dane pozwoliły nawet ustalić, czy rodzice badanej osoby rozwiedli się przed osiągnięciem przez nią pełnoletności, czy też nie. Model okazał się na tyle dobry, że możliwe stało się przewidzenie odpowiedzi osoby badanej na określone pytania. Odurzony sukcesem Kozinsky kontynuował: wkrótce model był w stanie lepiej rozpoznać osobę po dziesięciu przestudiowanych polubieniach niż jego koledzy z pracy. Po 70 polubieniach - lepiej niż przyjaciel. Po 150 polubieniach - lepiej niż rodzice. Po 300 polubieniach - lepiej niż Twoja partnerka. Dzięki jeszcze większej liczbie przestudiowanych działań możliwe byłoby poznanie osoby lepiej niż ona sama. W dniu, w którym Koziński opublikował artykuł o swoim modelu, otrzymał dwa telefony: skargę i propozycję pracy. Obydwa telefony pochodziły z Facebooka.

Tylko dla przyjaciół

Teraz na Facebooku możesz oznaczyć swoje posty jako publiczne lub prywatne, „zablokowane”: w drugim przypadku może je przeglądać tylko określony krąg znajomych. Ale dla zbieraczy danych również nie stanowi to problemu. O ile Koziński zawsze prosił o zgodę użytkownika Facebooka, o tyle nowoczesne testy wymagają dostępu do danych osobowych jako warunku ich przekazania.

Ale nie chodzi tylko o polubienia na Facebooku: Koziński i zespół mogą oceniać ludzi według kryteriów Wielkiej Piątki na podstawie ich zdjęcia użytkownika i zdjęć w sieciach społecznościowych. Lub nawet liczbą przyjaciół: dobry wskaźnik ekstrawersji! Ale udostępniamy dane osobowe również wtedy, gdy jesteśmy offline. Czujnik ruchu w smartfonie pokazuje, czy machamy nim ręką, jak daleko jedziemy (koreluje z niestabilnością emocjonalną). Jak zauważa Kozinsky, smartfon to ogromny kwestionariusz psychologiczny, który chętnie lub niechętnie wypełniamy. Co szczególnie ważne, działa to również w odwrotnym kierunku: możesz nie tylko stworzyć portret psychologiczny na podstawie danych, ale możesz wyszukiwać wśród tych portretów te, których potrzebujesz. Na przykład zmartwieni ojcowie, wściekli introwertycy, niezdecydowani zwolennicy Demokratów. Zasadniczo Koziński wynalazł wyszukiwarkę osób.

Koziński coraz lepiej rozumiał zarówno potencjał, jak i niebezpieczeństwo swojej pracy.

Mniej więcej w tym czasie, na początku 2014 r., do Kozińskiego zwrócił się młody adiunkt, Alexander Kogan. Miał zlecenie od pewnej firmy zainteresowanej metodą Kozińskiego. Propozycja polegała na psychometrycznej analizie 10 milionów amerykańskich użytkowników Facebooka. W jakim celu rozmówca nie powiedział ze względu na poufność. Koziński początkowo się zgodził, bo mówimy o dużych kwotach na rzecz jego instytutu, ale potem zaczął się wahać, czy się zgodzić. W rezultacie wycisnął z Kogana nazwę firmy: SCL, Strategic Communications Laboratories („Strategic Communications Laboratories”). Kozinsky wyszukał w Google nazwę firmy. „Jesteśmy globalną firmą zarządzającą kampaniami” – głosi strona internetowa firmy, oferująca marketing oparty na psychologii i logice. Skoncentruj się na wpływaniu na wyniki wyborów. Kozinsky ze zdumieniem klikał na strony serwisu, zastanawiając się, co ta firma może robić w USA.

Aleksander Kogan

Koziński nie wiedział wówczas, że za SCL stoi złożony system korporacyjny powiązany z rajami podatkowymi: zostało to później ujawnione w Panama Papers i doniesieniach Wikileaks. Część tego systemu odpowiada za kryzysy w krajach rozwijających się, inna pomogła NATO opracować metody manipulacji psychologicznej obywateli Afganistanu. Jeden z spółki zależne SCL to ta sama Cambridge Analytica, złowroga mała firma, która organizowała kampanie internetowe na rzecz Brexitu i Trumpa.

Koziński nic o tym nie wie, ale podejrzewa, że ​​coś jest nie tak. Po przeprowadzeniu badań dowiedział się, że Alexander Kogan stworzył tajną firmę, która robiła interesy z SCL. Z dokumentu, jakim dysponuje Das Magazin wynika, że ​​SCL otrzymało dane dotyczące metody Kozińskiego z rąk Kogana. Nagle Kozinsky'emu przyszło do głowy, że Kogan mógł skopiować lub przebudować swój system, a następnie sprzedać go strategom politycznym z SCL. Naukowiec natychmiast zrywa kontakt z Koganem i informuje o sytuacji swojego szefa instytutu. W instytucie narasta konflikt; instytucja obawia się o swoją reputację. Kogan przeprowadził się do Singapuru, ożenił się i zaczął nazywać się Dr. Spectre. Koziński przeprowadził się do Stanów, rozpoczynając pracę na Uniwersytecie Stanforda.

Przez ponad rok wszystko szło spokojnie, ale w listopadzie 2015 roku lider radykalnych zwolenników brexitu Nigel Farage ogłosił, że jego serwis internetowy łączy pewną firmę specjalizującą się w Big Data, czyli Cambridge Analytica, do współpracy przy jej kampanii internetowej. Kluczowa kompetencja firmy: nowy rodzaj marketingu politycznego – tzw. „mikrotargeting” – oparty na „metodzie oceanicznej”.

Koziński zaczyna dostawać mnóstwo listów – biorąc pod uwagę słowa „Cambridge”, „ocean” i „analytics”, wiele osób uważa, że ​​ma z tym coś wspólnego. Jednak dopiero wtedy sam dowie się o istnieniu takiej firmy. Z przerażeniem zagląda na stronę internetową firmy. Koszmar stał się rzeczywistością: jego metodologia zostaje wykorzystana w wielkiej grze politycznej.

W lipcu 2016 roku, po referendum w sprawie Brexitu, na jego głowę zaczęły spadać przekleństwa. Mówią: spójrz, co zrobiłeś! Za każdym razem Koziński musi się usprawiedliwiać i udowadniać, że nie ma nic wspólnego z tą firmą.

Najpierw Brexit, potem Trump

Minęło dziesięć miesięcy. W kalendarzu 19 września 2016 r. kampania wyborcza w USA trwa pełną parą. Ciemnoniebieski hol hotelu New York Grand Hyatt wypełnia się gitarowymi riffami: leci piosenka Bad Moon Rising zespołu Creedence Clearwater Revival. Odbywa się coroczny szczyt Concordii, światowego forum gospodarczego w miniaturze. Zaproszono odpowiednie władze, nawet obecny prezydent Szwajcarii Johann Schneider-Ammann. „Powitajcie Alexandra Nixa, dyrektora Cambridge Analytica” – mówi przyjemny kobiecy głos. Na scenę wchodzi chudy mężczyzna w ciemnym garniturze. Na sali panuje cisza. Wielu już wie, że to nowy cyfrowy specjalista Trumpa. „Wkrótce będziecie mnie nazywać panem Brexitem” – Trump napisał tajemniczo na Twitterze kilka tygodni wcześniej. Rzeczywiście, politolodzy już wtedy pisali o podobieństwie programów Trumpa do programów zwolenników wyjścia Wielkiej Brytanii z UE. I tylko nieliczni wiedzieli o powiązaniach Trumpa z mało znaną Cambridge Analytica.

Dyrektor Cambridge Analytica Alexander Nix

Do tego czasu cyfrowa kampania Trumpa składała się mniej więcej z jednego człowieka: Brada Parscale’a. Entuzjasta marketingu i założyciel nieudanego startupu, za 1500 dolarów zbudował dla Trumpa prostą stronę internetową. Trump, lat 70, raczej nie jest człowiekiem ery cyfrowej: nie ma nawet komputera na biurku. Jak powiedział kiedyś jego osobisty asystent, nie ma nawet czegoś takiego jak e-mail od Trumpa. Asystentka sama nauczyła go obsługi smartfona – z którego od tego czasu przelewa strumienie myśli na Twitterze.

Z kolei Hillary Clinton opierała się na dziedzictwie Baracka Obamy jako pierwszego „prezydenta mediów społecznościowych”. Miała listy mailingowe Partii Demokratycznej, miliony subskrybentów, wsparcie Google i Dreamworks. Kiedy Trump zatrudnił Cambridge Analytica w czerwcu 2016 r., wielu mieszkańców Waszyngtonu miało minę. Cudzoziemcy w garniturach, którzy nic nie rozumieją w tym kraju? Poważnie?

„To dla mnie zaszczyt, drogie panie i panowie, opowiedzieć wam teraz o potędze Big Data i psychometrii w kampania wyborcza„Nix powiedział na szczycie. W tym momencie za jego plecami pojawił się slajd z logo jego firmy: obraz mózgu złożony z sieci, niczym mapa. „Jeszcze kilka miesięcy temu Ted Cruz był jednym z najmniej faworyzowanych kandydatów” – powiedział blondyn Angielski akcent do tego stopnia, że ​​obecni Amerykanie czuli się jak Szwajcarzy słuchający literackiego języka niemieckiego. „Tylko 40% elektoratu znało jego nazwisko”. Wszyscy obecni pamiętali historię błyskawicznego awansu konserwatywnego senatora Cruza, być może najbardziej niewytłumaczalnego wydarzenia wyścigu wyborczego. Ostatni z poważnych przeciwników Trumpa w Partii Republikańskiej dosłownie pojawił się znikąd. „Więc jak to się stało?” – zapytała Nyks. Pod koniec 2014 roku Cambridge Analytica weszła w kampanię wyborczą w USA właśnie jako doradca Teda Cruza, finansowanego przez miliardera Roberta Mercera. Do tego czasu, argumentował Nix, kampaniami kierowała się kryteriami demograficznymi: „To głupi pomysł, jeśli naprawdę się nad tym zastanowić: do wszystkich kobiet dociera ten sam komunikat, ponieważ są tej samej płci, do wszystkich Afroamerykanów inny przekaz, ponieważ ich rasy.” W ten amatorski sposób (i nawet Nix nie musi tu nic dodawać) ekipa Clintona przeprowadziła sugerowaną przez socjologów kampanię: podziału społeczeństwa na formalnie jednorodne grupy. Ci sami, którzy do samego końca dali jej zwycięstwo.

Cambridge Analytica twierdzi, że Ted Cruz zawdzięcza temu swój sukces

A potem Nix klika kolejny slajd: pięć twarzy, każda odpowiadająca konkretnemu profilowi ​​osobowości, Wielkiej Piątce Wymiarów. „W Cambridge Analytica opracowaliśmy model, który pozwoli nam obliczyć tożsamość każdego dorosłego obywatela USA” – kontynuuje Nix. Na sali panuje kompletna cisza. Sukces marketingowy Cambridge Analytica opiera się na trzech filarach. Jest to psychologiczna analiza behawioralna oparta na „modelu oceanu”, badaniu Big Data i reklamie targetowanej. Przez to drugie rozumie się reklamę spersonalizowaną, a także reklamę jak najbardziej dostosowaną do osobowości konkretnego konsumenta.

Nix szczerze wyjaśnia, jak robi to jego firma (wykład dostępny na YouTubie). Jego firma pozyskuje dane osobowe ze wszystkich możliwych źródeł: wykazów katastralnych, programów premiowych, książek telefonicznych, kart klubowych, prenumerat gazet, danych medycznych. W USA można kupić niemal każde dane osobowe. Jeśli chcesz dowiedzieć się, gdzie np. mieszkają Żydówki, możesz łatwo kupić bazę danych. Następnie Cambridge Analytica zestawia te dane z listami zarejestrowanych zwolenników Partii Republikańskiej oraz danymi dotyczącymi polubień i repostów na Facebooku, aby utworzyć profil osobisty przy użyciu „metody oceanicznej”. Z danych cyfrowych nagle wyłaniają się ludzie ze strachami, aspiracjami i zainteresowaniami – a także z adresami.

Procedura jest identyczna z modelem opracowanym przez Kozińskiego. Cambridge Analytica korzysta również z testów IQ i innych małych aplikacji, aby uzyskać znaczące polubienia od użytkowników Facebooka. A firma Nixa robi to, przed czym przestrzegał Koziński: „Mamy psychogramy wszystkich dorosłych Amerykanów, czyli 220 milionów ludzi. Nasze centrum kontroli wygląda tak, proszę zwrócić uwagę” – mówi Nix, przeglądając slajdy. Wyłania się mapa Iowa, gdzie w prawyborach Ted Cruz zebrał niespodziewanie dużą liczbę głosów. Na mapie widoczne są setki tysięcy małych kropek: czerwonych i niebieskich, zgodnie z kolorami imprezy. Nix ustala kryteria. Republikanie - i niebieskie kropki znikają. Nie dokonaliśmy jeszcze wyboru – jest mniej punktów. Mężczyźni - jeszcze mniej i tak dalej. W rezultacie pojawia się nazwisko jednej osoby: z wiekiem, adresem, zainteresowaniami, preferencjami politycznymi. Ale w jaki sposób Cambridge Analytica kieruje swój przekaz do konkretnych osób?

W innej prezentacji Nix opisał, jak na przykładzie przepisów dotyczących kontroli broni: „Dla osób bojących się wysoki poziom neurotyczności, wyobrażamy sobie broń jako źródło bezpieczeństwa. Tutaj zdjęcie po lewej stronie przedstawia rękę włamywacza wybijającego okno. A na prawym zdjęciu widzimy mężczyznę i jego syna idących przez pole z karabinami w stronę zachodu słońca. Podobno polowanie na kaczki. To zdjęcie jest dla bogatych, ekstrawertycznych konserwatystów”.

Sprzeczny charakter Trumpa, jego brak zasad i wynikający z tego zalew różnych przekazów nagle trafiły w jego ręce: każdy wyborca ​​miał swoje własne przesłanie. „Trump działa jak doskonały algorytm oportunistyczny, który opiera się wyłącznie na reakcji społeczeństwa” – zauważyła w sierpniu matematyczka Kathy O'Neill. W dniu trzeciej debaty między Trumpem a Clintonem zespół Trumpa opublikował w mediach społecznościowych ponad 175 tysięcy różnych wariacji Wiadomości sieciowe (głównie Facebook) różniły się jedynie najdrobniejszymi szczegółami, aby psychologicznie jak najdokładniej dopasować się do konkretnych odbiorców informacji: nagłówkami i podtytułami, kolorami tła, wykorzystaniem zdjęć czy filmów w poście wykonanie pozwala przekazom dotrzeć do najmniejszych grup ludności, sam Nix wyjaśnił Das Magazin: „W ten sposób możemy dotrzeć do odpowiednich wiosek, dzielnic lub domów, a nawet konkretnych osób w dzielnicy Little Haiti w Miami”. ogłoszono informację o odmowie Fundacji Clintonów udziału w akcjach niesienia pomocy po trzęsieniu ziemi na Haiti – kolejnym celem było zniechęcenie mieszkańców do oddania głosu na Clintona: utrzymanie bazy Clintona (takiej jak niezdecydowani lewicowcy, Afroamerykanie i młode dziewczyny) z urny wyborczej, aby „stłumić” ich wybór, jak to ujął jeden z pracowników Trumpa. Facebook stosował także tak zwane „ciemne posty”: płatne reklamy w środku kanału informacyjnego, które mogły dotrzeć tylko do określonych grup ludzi. Na przykład Afroamerykanom wyświetlano posty z filmem, na którym Clinton porównuje czarnych mężczyzn do drapieżników.

Hillary Clinton była jedną z ofiar antyreklamowej polityki Cambridge Analytica

„Moje dzieci nie będą już w stanie wyjaśnić, co to znaczy mieć plakat z tym samym przesłaniem dla wszystkich” – Nicks kończy swoje przemówienie na szczycie Concordii, dziękuje za uwagę i schodzi ze sceny.

Trudno powiedzieć, w jakim stopniu w tym konkretnym momencie społeczeństwo amerykańskie jest przetwarzane przez specjalistów Trumpa, ponieważ niezwykle rzadko atakują oni centralne kanały telewizyjne, a najczęściej korzystają z portali społecznościowych i telewizji cyfrowej. I choć pracujący według wzorców socjologów zespół Clintona jest w letargu, w San Antonio wyłania się „druga kwatera główna”, gdzie mieści się „cyfrowa siedziba” Trumpa – twierdzi korespondentka Bloomberga, Sasha Issenberg. W sumie kilkunastu pracowników Cambridge Analytica otrzymało od Trumpa w lipcu 100 000 dolarów, w sierpniu kolejne 250 000 dolarów, a we wrześniu kolejne 5 milionów dolarów. Według obliczeń Nixa łączna kwota zapłaty za usługi wyniosła 15 milionów dolarów.

Ale prowadzone działania są też radykalne: od lipca 2016 roku wolontariusze kampanii Trumpa otrzymują aplikację, która sugeruje preferencje polityczne i typy osobowości mieszkańców konkretnego domu. W związku z tym agitatorzy-wolontariusze zmodyfikowali swoje rozmowy z mieszkańcami w oparciu o te dane. Ochotnicy rejestrowali opinie w tej samej aplikacji, a dane przesyłano bezpośrednio do centrum analitycznego Cambridge Analytica.

Firma identyfikuje 32 psychotypy wśród obywateli amerykańskich, koncentrując się jedynie na 17 stanach. I tak jak Kozinsky odkrył, że męscy fani kosmetyków MAC to najprawdopodobniej homoseksualiści, tak Cambridge Analytica udowodniła, że ​​zwolennicy amerykańskiego przemysłu motoryzacyjnego to zdecydowanie potencjalni zwolennicy Trumpa. Takie odkrycia pomogły między innymi samemu Trumpowi zrozumieć, które przesłania i gdzie najlepiej wykorzystać. Decyzja o skupieniu się kampanii w ostatnich tygodniach na Michigan i Wisconsin została podjęta na podstawie analizy danych. Kandydat stał się wzorem do posługiwania się systemem.

Czym zajmuje się Cambridge Analytica w Europie?

Ale jak duży był wpływ psychometrii na wynik wyborów? Cambridge Analytica nie spieszy się z przedstawieniem dowodów na sukces swojej kampanii. Jest całkiem możliwe, że jest to pytanie całkowicie bez odpowiedzi. Fakt jest jednak jeden: dzięki wsparciu Cambridge Analytica Ted Cruz z niczego stał się najpoważniejszym konkurentem Trumpa w prawyborach. Oto wzrost liczby głosów na obszarach wiejskich. Oto spadek liczby głosów Afroamerykanów. Nawet fakt, że Trump wydał na projekt tak mało pieniędzy, może świadczyć o skuteczności spersonalizowanej promocji. A nawet fakt, że trzy czwarte budżetu reklamowego wydał w sferze cyfrowej. Facebook stał się doskonałą bronią i najlepszym asystentem w wyborach, jak napisał na Twitterze jeden ze współpracowników Trumpa. Notabene, w Niemczech antyelitarna Alternatywa dla Niemiec ma więcej subskrybentów na Facebooku niż czołowe partie CDU i SPD razem wzięte.

Poza tym w żadnym wypadku nie można powiedzieć, że socjolodzy i statystycy przegrali wybory, bo mocno pomylili się w swoich prognozach. Jest odwrotnie: wygrali statystycy, ale tylko ci, którzy korzystali najnowsze metody. Żart historii: Trump nieustannie krytykował tę naukę, ale w dużej mierze dzięki niej wygrał.

Drugim zwycięzcą jest Cambridge Analytica. W zarządzie tej firmy zasiada także wydawca głównego konserwatywnego ustnika Breitbart, Steve Bannon. Niedawno został mianowany starszym strategiem w zespole Trumpa. Marion Maréchal Le Pen, działaczka Francuskiego Frontu Narodowego i siostrzenica lidera partii, z radością ogłosiła już współpracę z firmą, której wewnętrzne korporacyjne wideo pokazuje spotkanie na temat „Włochy”. Według Nixa interesują go teraz klienci z całego świata. Pojawiły się już prośby o współpracę ze Szwajcarii i Niemiec.

Marie Le Pen chce zostać kolejną klientką Cambridge Analytica

Koziński obserwuje to wszystko ze swojego biura na Uniwersytecie Stanforda. Po wyborach w USA na uniwersytecie wszystko zostaje wywrócone do góry nogami. Kozinsky reaguje na rozwój wydarzeń za pomocą najostrzejszej broni, jaką dysponuje badacz: analizy naukowej. Wraz ze swoją koleżanką Sandrą Matz przeprowadził serię testów, których wyniki wkrótce zostaną opublikowane. Niektóre z tych ustaleń, którymi naukowiec podzielił się z Das Magazin, są szokujące. Na przykład targetowanie psychologiczne, takie jak stosowane przez Cambridge Analytica, zwiększa współczynnik klikalności reklam na Facebooku o 60%. Prawdopodobieństwo, że po obejrzeniu spersonalizowanej reklamy ludzie podejmą działanie (kupią ten czy inny przedmiot lub zagłosują na wybranego kandydata) wzrasta o 1400%.

Teraz świat wywrócił się do góry nogami: Brexit nastąpił, Trump wkrótce będzie rządził w Ameryce. Wszystko zaczęło się od człowieka, który chciał nas ostrzec przed niebezpieczeństwem. Teraz ponownie otrzymuje mnóstwo skarg w swoim służbowym e-mailu. „Nie” – mówi Koziński. - To nie moja wina. To nie ja zbudowałem bombę, po prostu pokazałem, że one istnieją.

Michael Kosiński to guru psychometrii cyfrowej, analizujący ludzi na podstawie ich cyfrowych śladów. Nika Dubrovskaya z niepokojem zapytała go, co stanie się z naszą prywatnością.

Michał Kosiński to psycholog, specjalista big data, były zastępca dyrektora Centrum Psychometrii na Uniwersytecie w Cambridge, obecnie profesor nadzwyczajny na Uniwersytecie Stanforda, jeden z czołowych na świecie specjalistów w dziedzinie psychometrii nowego stylu, który wykorzystuje biznes, politykę, agencje wywiadowcze , opieka zdrowotna lub po prostu inne osoby mogą je wykorzystać do swoich celów.

- Opowiedz nam, czym jest psychometria, jak długo istnieje i jak się rozwinęła.

Psychometria to nauka badająca teorię i metodologię pomiarów psychologicznych. Dokonują go psychologowie, którzy za pomocą różnych kwestionariuszy i testów analizują cechy osobowości człowieka. Istnieje już od bardzo dawna: ponad tysiąc lat temu chińscy urzędnicy byli zatrudniani na podstawie standardowych testów podobnych do współczesnych egzaminów GMAT i SAT, których używamy dzisiaj w Ameryce.

Największą zmianą w psychometrii jest to, że zamiast przeprowadzać wywiady z ludźmi za pomocą kwestionariuszy, możemy teraz obserwować ich zachowanie. Psychologowie wiedzą to od dawna Najlepszym sposobem oceń osobę - obserwuj go. Zamiast pytać, jak często chodzisz na imprezy, lepiej przekonać się na własne oczy. W prawdziwym życiu jest to bardzo trudne. Śledzenie ludzi i nagrywanie tego, co robią, wymagałoby niesamowitej ilości czasu i zasobów, nie wspominając już o tym, że jest to dość przerażające.

Ale w świecie nowych technologii sami bez zastanowienia zostawiamy mnóstwo cyfrowych odcisków palców – za każdym razem, gdy korzystamy z Facebooka, przeglądarki, Google, smartfona. Dziś nie jest trudno wykorzystać te dane do stworzenia portretu osoby. A ta metoda ma wiele zalet. Na przykład ludziom trudniej jest zniekształcać informacje o sobie. W przeszłości, jeśli skłamałeś test psychologicznyłatwo mógł zyskać przewagę nad kimś uczciwym. Dziś trzeba by całkowicie zmienić swoje zachowanie i trzymać się go przez wiele lat z rzędu, żeby oszukać system. Jeśli więc rzeczywiście potrafisz zachowywać się jak dobrze zorganizowana osoba przez pięć lat, to prawdopodobnie tak jest.

Chciałbym także poznać mój profil psychologiczny. Ale to interesuje nie tylko mnie, ale także tych, którzy nie mają nic przeciwko sprzedawaniu mi czegoś lub wpływaniu na mnie w jakiś sposób.

Oczywiście są ludzie, którzy tego chcą i pod pewnymi względami jest to nawet dobre. Minister Zdrowia nalega, abyś rzucił palenie i zaczął jeść zdrowe jedzenie i żył dłużej. I ma większą szansę ci pomóc, jeśli wie, jak ci to poprawnie przedstawić. Jest Twoje nauczyciel szkoły pomaga ci stać się dobrym szczery człowiek. Istnieje wiele przykładów wpływu na nasze zachowanie dla naszego dobra.

Nie popieram poglądu, że wszystkie dane osobowe powinny znajdować się w domenie publicznej i że każdy może je uzyskać bez naszej wiedzy. Ale jeśli ktoś się zgodzi, możemy mu np. pomóc znaleźć pracę, w której będzie mógł się realizować, dla której będzie chciał wstawać rano. Lub śledź objawy choroba umysłowa a nawet przewidzieć wysokie ryzyko samobójstwa, analizując zdjęcia twarzy lub ślady cyfrowe. Choroba wpływa na Twoje zachowanie, jednak efekt ten może być tak mały, że zwykły człowiek, w przeciwieństwie do komputerów, go nie zauważy. Kiedyś na wizytę u psychologa mogły sobie pozwolić jedynie osoby posiadające pieniądze. Dziś dzięki algorytmom możemy to wszystko dać zwykłym ludziom, nie wymagając od nich wydawania setek dolarów w gabinetach lekarskich.

Albo pomyśl na przykład o edukacji. Załóżmy, że nauczyciel mówi coś słuchaczom, ale z kim tak naprawdę rozmawia? Rozmawia z przeciętnym uczniem, który tak naprawdę nie istnieje. W rezultacie wielu uczniów się nudzi: dla niektórych mówi za szybko, dla innych za wolno. A my opracowujemy algorytmy, które będą w stanie określić, jak szybko uczeń wykonuje zadania i dostosować program do jego potrzeb. Szybki uczeń będzie mógł szybko zrobić postępy, wolny uczeń nie zostanie w tyle, bo komputer będzie cierpliwie czekał i wszystko mu jaśniej wyjaśni.

Jak więc dokładnie możesz dowiedzieć się o nich czegoś osobistego na podstawie obserwacji zachowań użytkowników w Internecie?

Kiedy korzystasz z Facebooka, on bada Twoje zachowanie i wykorzystuje te informacje do stworzenia Twojego profilu psychologicznego. Jest on następnie wykorzystywany przez inne algorytmy, aby mieć pewność, że w Twoim kanale będą wyświetlane tylko te wiadomości i historie, które Cię interesują. I to jest świetne, bo w przeciwnym razie bardzo szybko znudziłoby Ci się zajmowanie się niepotrzebnymi informacjami. Facebook wykorzystuje te same mechanizmy, aby wyświetlać reklamy. To też świetnie – dlaczego widzisz reklamy, które w ogóle Cię nie interesują? Facebook musi wyświetlać reklamy, żeby zarabiać – dla nas jest to swego rodzaju opłata za korzystanie z serwisu. Ale lepiej, żeby te reklamy przynajmniej były przydatne. Dlatego często nie ma nic złego w marketingu ukierunkowanym, o ile nikt nie wtrąca się w Twoje życie bez Twojej wiedzy i zgody. Oczywiście każdy powinien mieć możliwość rezygnacji, aby algorytm nie utworzył profilu. Ale wszystkim innym znacznie ułatwia to życie.

To bardzo dziwne, że jesteś takim optymistą. W innych wywiadach po zwycięstwie Trumpa byłeś dużo mniej wesoły.

To dziennikarze wybierają tylko to, co negatywne. Złe wiadomości się sprzedają; nikt nie chce słuchać niczego optymistycznego.

I jeszcze. Na przykład jestem obywatelem amerykańskim i w ostatnich wyborach nie głosowałem, bo nie chciałem głosować na Hillary, ale byłem absolutnie pewien, że i tak wygra. Ale teraz myślę, że tę decyzję narzucił mi Facebook, filtrując informacje w kanale. Mój profil mówi, że nie będę głosował na Trumpa, ale być może, jeśli zajdzie taka potrzeba, nie będę też głosował na Hillary. To właśnie tego „jeśli w ogóle” mógł się uchwycić system.

Tak, ludzie mówią o bańce informacyjnej, nawet Obama wspomniał o tym w swoim pożegnalnym przemówieniu. To trend w modzie oparty na fałszywym przekonaniu. Istnieją nawet instytuty, które są w istocie ośrodkami badawczymi zajmującymi się badaniem zjawiska bańki informacyjnej. Oczywiście, jeśli jesteś ośrodkiem badawczym badającym jakiś problem, znajdziesz go, ponieważ otrzymujesz na to granty. Jednak w rzeczywistości bańki informacyjne nie mają podstaw naukowych. Dokładnie odwrotnie.

W przeszłości takie zjawisko rzeczywiście istniało i wiązało się z tym, że z bańki informacyjnej nie można było się wydostać. Jeśli mieszkałeś w Rosji, słyszałeś tylko rosyjską propagandę. Jeśli urodziłeś się w zamożnej angielskiej rodzinie, informacje otrzymywałeś tylko od zamożnych przyjaciół. Jeśli we wsi, to tylko u księdza i bibliotekarza.

Teraz mamy Internet. Jednak ludzie nadal mają tendencję do akceptowania tylko informacji potwierdzających ich poglądy. Ta tendencja do potwierdzania własnego punktu widzenia jest jednym z najczęściej badanych błędów poznawczych w psychologii. Oznacza to, że jeśli jesteś liberałem, wolisz informacje liberalne, jeśli jesteś konserwatystą, wolisz informacje konserwatywne. Wcześniej nie mogłeś nic z tym zrobić, nawet tego nie rozumiałeś. Ale obecnie na Facebooku czasami spotykasz się z całkowicie szalonymi informacjami od osób spoza Twojej bańki. Daje możliwość nauczenia się czegoś zupełnie przeciwnego temu, co wiedziałeś wcześniej.

Dzisiaj ludzie konsumują niespotykaną dotąd różnorodność informacji, i to nie tylko w sferze politycznej. Niedawno rozmawiałem z głównym inżynierem Spotify i powiedział mi, że tylko w 2016 roku różnorodność zespołów, których słuchają ludzie, wzrosła średnio o 20%. Zatem mimo naszych predyspozycji wciąż otrzymujemy więcej informacji. Oczywiście część z nich będzie niskiej jakości, a część będzie po prostu fałszywa. To są nowe media i trzeba nauczyć się z nich korzystać, filtrować je – ta umiejętność staje się dziś ważniejsza niż kiedykolwiek.

Ukierunkowany marketing polityczny jest również dobrą rzeczą. Jeśli mieszkasz duże miasto, problemy z tym związane rolnictwo, nie jesteś zainteresowany. A jeśli zobaczysz w telewizji polityka mówiącego o tym, prawdopodobnie zmienisz kanał, a to jest złe, ponieważ wykluczasz się z procesu politycznego. Jednak nowy algorytm daje politykom możliwość komunikowania się jeden na jeden z wyborcami w ważnych dla nich kwestiach. Programy partii to długie dokumenty, setki, jeśli nie tysiące stron. Zwykły człowiek ich nie zrozumie. Algorytmy pozwalają wybrać część programu, która Cię dotyczy i wyświetlić ją tak, abyś mógł się z nią zapoznać.

Kiedyś politycy po prostu wysyłali wszystkim na raz jedną wiadomość w sprawie, która wielu nie obchodziła. Teraz mogą porozmawiać o tym, co jest dla Ciebie istotne. I oczywiste jest, że niektórzy zaczną to robić wcześniej, inni później. Ci, którzy przyjdą wcześniej, będą mieli przewagę po prostu dlatego, że już cię lepiej słyszą. Wkrótce włączą się w to inni politycy i równowaga sił zostanie przywrócona, na tym wszyscy skorzystamy.

- Ale na razie Trump jest w awangardzie...

Tak, Trump to historia sukcesu człowieka bez wsparcia wielkich lobbystów. To było po prostu zabawne: nie miał jasnego pojęcia, mówił głupie rzeczy. Clinton miała znacznie większy budżet. Trump przemawiał jednak bezpośrednio do ludzi. Również Bernie Sanders może dzisiaj daleko zajść w wyborach tylko dlatego, że ma coś do powiedzenia na Twitterze – to prawdziwa rewolucja w polityce. Jeszcze 10, 20 lat temu nikt by o nim nie słyszał.

Pytanie brzmi, czy ja lub jakikolwiek użytkownik mamy realną szansę, aby przerwać ciągłą inwigilację i wydostać się z sieci gromadzącej dane osobowe.

Nie da się tego zatrzymać. Chociaż możesz po prostu przestać korzystać z Facebooka i Twittera. Swoją drogą te dwie firmy zbierają dane najmniej agresywnie. Myśleć o karta kredytowa lub przeglądarka internetowa – to bardzo osobiste dane, ślady cyfrowe, które naprawdę mogą wiele o Tobie powiedzieć. Musiałbym więc wyłączyć światła, przenieść się do jaskini w środku lasu i pozbyć się wszystkich urządzeń cyfrowych. I nawet wtedy jakiś turysta by cię znalazł i zrobił ci zdjęcie, bo jesteś dziwakiem. I znowu proszę, zostawiając cyfrowe ślady. Tu nie ma gotowych rozwiązań, trzeba być uważnym, analizować, tworzyć Nowa polityka poufność, opracować technologie niezbędne do jej wdrożenia. Możesz głosować na polityków, którzy poważnie traktują kwestie prywatności.

- Zmienić prawo?

Myślę, że to po prostu spowalnia proces. Jeśli uchwalicie ustawę zabraniającą jakiegokolwiek profilowania użytkowników, doprowadzi to do upadku, przestanie działać cały system rekomendacyjny. Twoje Spotify, Last.fm, Netflix, Facebook - wszystko. Wyniki wyszukiwania, które widzisz, są również częścią silnika rekomendacji, a Google również przestanie działać. Ogólnie rzecz biorąc, uważam, że w miarę jak stajemy się coraz bardziej cyfrowi i pozostawiamy po sobie coraz więcej cyfrowych odcisków palców, a algorytmy stają się coraz mądrzejsze, w przyszłości nie będziemy w stanie zachować prywatności.

- A co będzie oznaczać ta utrata prywatności?

Być może w przyszłości nie będziesz mógł ukryć nawet najbardziej prywatnych funkcji. Dziś możesz mi powiedzieć, jakie są Twoje poglądy polityczne, orientację seksualną, przynależność religijną lub nie musisz mówić. Ale w przyszłości możesz nie mieć takiego wyboru. Algorytmy przejrzą Cię na wylot. Dziś jesteśmy w stanie sfotografować każdą osobę i określić z ponad 90% dokładnością, jaka jest jej orientacja seksualna, bez konieczności analizowania dodatkowych danych. Nie wspominając już o tym, jak wiele można się o Tobie dowiedzieć dzięki polubieniom i tweetom. Rządy, firmy, a nawet zwykli ludzie. To, co Stasi zrobiła w Niemczech Wschodnich, zatrudniając setki tysięcy ludzi na liście płac, dziś student może zrobić na swoim laptopie. Liceum.

Jednak ta sama technologia stwarza znacznie większe zagrożenie dla ludzi żyjących w takich krajach jak Arabia Saudyjska czy być może Rosja. Jeśli mieszkasz Arabia Saudyjska a algorytm może powiedzieć rządowi, jakie masz poglądy polityczne i orientację seksualną – mogą cię po prostu zabić.

- Jednocześnie Facebook to także prywatna firma, biznes.

Ważne jest, kto kontroluje media. To oczywiste Marka Zuckerberga dziś samodzielnie kontroluje środowisko, którego wiele osób używa do konsumowania informacji. Larry Page i Sergey Brin zarządzają innym środowiskiem, które może mieć ogromny wpływ na wyniki wyborów. A to jest naprawdę niebezpieczne na wielu poziomach. Być może wszyscy są dobrymi ludźmi, ale kto wie na pewno? Powiedzmy, że Zuckerberg ma się dobrze, ale co, jeśli następny Zuckerberg będzie potworem? Zawsze jest źle dla demokracji, gdy jedna osoba ma za dużo władzy, ale z tym już mamy do czynienia.

Przede wszystkim Zuckerberg może zmienić swój algorytm. Ale przynajmniej Mark jest osobą odpowiedzialną i ludzie wiedzą, że jeśli coś się stanie, można go winić. Ale prosty programista, anonimowy facet, który siedzi w serwerowni, nie ma takiej odpowiedzialności. Jutro może zmienić kilka linijek kodu w algorytmie Facebooka i wpłynąć na działanie tej ogromnej maszyny, a nikt tego nie zauważy, zresztą ludziom trudno będzie się zorientować, że to on to zrobił.

Drugi problem polega na tym, że algorytm może zacząć robić rzeczy, których nikt się nie spodziewa, nawet sam Zuckerberg i jego programiści. W przeszłości, jeśli posiadałeś gazetę i chciałeś założyć felieton polityczny, umawiałeś się na spotkanie z redaktorami i mówiłeś im, jak to powinno wyglądać. Łatwo było to kontrolować, a jako właściciel od razu mogłeś zobaczyć, czy Twoja gazeta wydrukowała coś źle.

Algorytmy Facebooka są znacznie trudniejsze do kontrolowania; każdemu pokazują co innego. Ani Zuckerberg, ani jego inżynierowie nie są w stanie zrozumieć, co tak naprawdę robi ten algorytm, co się w nim dzieje. Oznacza to, że oczywiście możemy zrozumieć, jak to działa, ponieważ nawet sieci neuronowe są dość proste - ale są ogromne. Warstwy tych prostych rzeczy jest tak wiele, że system staje się zupełnie niezrozumiały. Umożliwia to paradoksalną sytuację, gdy algorytm Zuckerberga zaczyna robić rzeczy, których nie jesteśmy świadomi i których w związku z tym nie możemy kontrolować.

- Wow. A jak widzisz rozwiązanie tego problemu?

Tradycyjne media są kontrolowane przez organizacje społeczeństwa obywatelskiego i rządowe agencje medialne, aby zapewnić, że dziennikarze nie publikują fałszywych informacji. Myślę, że te same standardy powinny obowiązywać w przypadku firm takich jak Facebook czy Google. Oczywiście jest to znacznie trudniejsze do wdrożenia, ponieważ każdy użytkownik Facebooka ma inne spersonalizowane doświadczenia. To nie jest tak, jak z tradycyjnymi mediami, gdzie można policzyć, kto ile razy skłamał i ukarać go karą. Myślę jednak, że możemy przeanalizować doświadczenia losowych dziesięciu lub stu tysięcy użytkowników i na tej podstawie wyciągnąć wnioski na temat zachowania algorytmu jako całości.

- Proponujesz kontrolować algorytm, a nie użytkownika, prawda?

Sugeruję użycie jednego algorytmu do kontrolowania innych algorytmów. Gdyby algorytmy Marka Zuckerberga były monitorowane przez inne algorytmy, nie tylko byłby on bardziej świadomy swojej odpowiedzialności, ale ludzie mieliby do niego większe zaufanie. Społeczeństwo, politycy, Zuckerberg – wszyscy musimy zaakceptować tę nową politykę, która może nas zabezpieczyć przed ingerencją programisty w serwerowni. Na tej dodatkowej kontroli, publicznej i otwartej, skorzystają wszyscy. Może to być monitorowane przez uniwersytet, kilka uniwersytetów, organizacje publiczne lub każdego użytkownika.

Teraz, gdy Facebook zauważył coś dziwnego w swoim algorytmie, próbują to rozgryźć. Weźmy na przykład fałszywe wiadomości. Jest to problem, z którym borykają się od dawna i ciężko pracują, aby go rozwiązać. I można powiedzieć, że udało im się tak skonfigurować algorytm, że przestał pokazywać fałszywe wiadomości. Ale to wszystko sprawia, że ​​nikt nie rozumie, jak działa algorytm – możemy jedynie przyjrzeć się wynikowi i poprawić błędy. Dotyczy to także innych dziedzin – już niedługo pójdziesz do lekarza, a on powie Ci: „Weź ten lek, to ci pomoże. Ale nie wiem dlaczego - tak powiedział komputer. To musi być prawda, bo on praktycznie nie popełnia błędów i wie wszystko lepiej ode mnie.

„Prawdopodobnie nie wziąłbym tych tabletek”.

Myślę, że warto – komputery są tutaj dokładniejsze.

- Czy nadal uważasz, że będziemy w stanie zabezpieczyć się w przyszłości?

Możemy zmieniać prawo i tworzyć firmy, które będą w stanie lepiej chronić naszą technologię; możemy omówić zdecentralizowane technologie szyfrowania. Zamiast jednak kontynuować walkę o prywatność, którą już przegraliśmy, musimy pomyśleć o dalszych działaniach. Starajmy się, aby społeczeństwo było bardziej otwarte i tolerancyjne. Wykształconymi wyborcami trudniej jest manipulować; tolerancyjne społeczeństwo nie będzie grozić osobom o innych poglądach, orientacji seksualnej czy religii. I nie możemy się chronić, jeśli się nie zjednoczymy. Problem jest zbyt poważny – przed bombą nuklearną nie uchronisz się samą. Chociaż ten przykład jest po prostu zachęcający. Mamy wiele innych potencjalnie niebezpiecznych technologii opracowanych przez ludzkość i udało nam się sobie z nimi poradzić. Pomyśl o energii nuklearnej, dynamicie lub nożach kuchennych. Oczywiście istnieją przykłady wykorzystania tych technologii przeciwko naszemu dobremu samopoczuciu, ale ogólnie udaje nam się je kontrolować. Poradzimy sobie z energią jądrową i poradzimy sobie z algorytmami.

W pracach nad tekstem brał udział Arnold Chaczaturow.