Reklama
Rozwiń

Ludzkość we władzy algorytmów. Czy da się poprawić internet?

Kapitaliści nadzoru wiedzą o nas coraz więcej. Ich celem jest zmapowanie i przyczynowe powiązanie wszystkiego ze wszystkim. Dzięki temu będą mogli wreszcie kreować potrzeby ludzkie i je przewidywać. Czy da się ich powstrzymać? I jak się do tego zabrać?

Publikacja: 06.11.2019 10:34

Mark Zuckerberg wchodzi na zupełnie nowy rynek

Mark Zuckerberg wchodzi na zupełnie nowy rynek

Foto: Getty Images, Andrew Harrer

Mama i tata nakładli ci do głowy, że jesteś kimś wyjątkowym? To błąd. Nie jesteś. Ja też nie. Wręcz przeciwnie – wszyscy jesteśmy statystycznie powtarzalni, przewidywalni i policzalni. Segregowalni i monetyzowalni. Lubimy typowe dla naszego profilu osobowego rzeczy, poruszamy się typowymi trasami i wydajemy tyle, co przedstawiciele naszej klasy społecznej; w spodziewalnych okresach dopadają nas podobne choroby cywilizacyjne, a gdy już dopadną – podobnie panikujemy i szukamy pomocy. Równie standardowe mamy zwyczaje zakupowe, a nawet codzienne myśli. Tę potężną wiedzę o nas samych dał nam internet. U początku ery cyfrowej powiedział bowiem: „Zbiorę nieskończenie dużo danych z dusz waszych i przeczeszę algorytmem korzystającym z mądrości wszystkich pokoleń Ziemi”. I tak się stało. I widział internet, że to jest dobre.

Dyskretny urok konfesjonału

Dlaczego dobre? Bo firmy śledzące ruch w sieci (Google, Facebook etc.) ułatwiają nam dobre życie od prawie 20 lat. I korzystają na stale rozwijającej się bazie wiedzy o nas. O pokoleniu 30–40-latków wiedzą dużo; o ich dzieciach – usieciowionych od przedszkola – będą wiedzieć jeszcze więcej. Niezależnie od pokolenia, wszyscy jesteśmy dla nich dobrowolnym dawcą danych, który zgadza się na mentalną wiwisekcję.

Oczywiście, wpisując nowe pytanie do wyszukiwarki Google’a odnosimy korzyść, pozyskując informacje. Ale łatwo zapominamy, że algorytm sieci też odnosi korzyść – karmiąc się naszymi danymi, ma coraz lepszy wgląd w naszą psychikę i wzorce zachowań. Z pozoru wygląda to jak symbioza – kiedy my konsumujemy zasoby internetu, on konsumuje nas. W zamian za informacje algorytm, niczym profesor z binoklem i doktoratem z psychologii, zyskuje cenne informacje o nas. Jego wiedza jest co dzień większa, dzięki rzeszy naukowców, badających związek kliknięć z preferencjami konsumenckimi czy wyborczymi. Dzięki temu profesor krok po kroku staje się naszym spowiednikiem i zaczyna znać nas lepiej niż dobrzy znajomi. A często lepiej niż przyjaciele. W końcu któremu przyjacielowi godzinami będziesz opowiadać o tłustych krostach na plecach czy upodobaniach erotycznych? A przecież algorytmowi opowiadasz.

Jeśli myślisz, że to nieprawda, zainstaluj nakładkę Lightbeam lub Privacy Badger na przeglądarkę internetową. Zobaczysz w czasie rzeczywistym, jak miriady podmiotów o dziwnych nazwach handlują każdym twoim kliknięciem – i robią Bóg wie co z danymi, które pozyskają.

Tak naprawdę nawet nie pamiętasz, kiedy dałeś komuś zgodę na intymną zażyłość z twoimi tajemnicami. Z pewnością uśpiło cię to, że cyfrowy konfesjonał wydaje się bezosobowy; że obserwacja twoich działań obywa się bez ludzkich świadków; że dla algorytmów jesteś interesujący nie jako jednostka, lecz jako element grup i trendów. Być może uśpiło cię też to, że algorytm jawił się jako naukowiec, którego nie interesują nasze uczucia, a jedynie obiektywna analiza danych. Pamiętasz być może, że dla wygody dałeś zgodę na jakieś „cookies”, żeby sieć przeglądać łatwiej i szybciej. To jeszcze można zrozumieć. Ale dlaczego u licha zgodziłeś się mimochodem, by prywatne firmy z zagranicy – a więc potencjalnie także służby innych krajów! – wiedziały o tobie tysiąc razy więcej niż twoje własne państwo?

Jeśli z perspektywy czasu myślisz, że dałeś się zwieść – spokojnie. Dostaniesz rozgrzeszenie. Tak jak ty dało zwieść się ponad 3 mld ludzi korzystających z internetu. Dziś wspólnymi siłami część z nich obmyśla drogę wyjścia z tego cyfrowego bagna.

Trzy internety, jedna wątpliwość

Można spytać – w czym problem? Jeśli ktoś nie chce cyfrowych dobrodziejstw, niech nie korzysta z wyszukiwarek i portali społecznościowych. Niestety, z małymi wyjątkami – nie da się. Żyjemy w czasach, gdy praca w kopalni wiedzy jest niezbędna do przeżycia dla coraz większej rzeszy ludzi. Kiedyś można było mieć ziemię i żyć dzięki plonom. Dziś plony trzeba kupić w sklepie – i na nie zarobić – coraz częściej poprzez przetwarzanie informacji. To właśnie dlatego w 2016 r. ONZ uznało dostęp do internetu za prawo człowieka. Jednak w internecie musimy poddać się rygorom algorytmów, tak samo jak tysiąc lat temu musieliśmy poddać się rygorom używania pióra, inkaustu i klasztornej księgi, aby tworzyć wiedzę. Alternatywy nie ma.

Dlatego tak ważne są dziś odpowiedzi na pytania: jak działa algorytm? Komu służy? Kto go kontroluje? Kto go kalibruje? Jaką władzę daje? Co powoduje? A jeśli tworzy nasze tożsamości, wirtualne „ciała”, to jak je konstruuje, rozwija, porównuje? Jak kształtuje zachowania? Pamiętam, że jeszcze dziesięć lat temu zadawanie tych pytań było w kręgach tech-entuzjastów uznawane za wstecznictwo. – Jeśli ci się nie podoba amerykański Google – można było usłyszeć – zawsze masz alternatywę: chińskie Baidu lub rosyjski Yandex. He, he. Wiadomo, że jako Europejczyk wrócisz i tak do Google’a, no bo przecież nie do Binga ani Yahoo.

Wyszukiwarka Google’a oferuje dziś najlepszy algorytm do przeczesywania sieci na świecie. W końcu firma z Mountain View trenuje ten algorytm niczym psa tropiącego już 20 lat. Dzięki temu osiągnęło tak zwany efekt skali – czyli zestaw łatwo osiągalnych strategicznych korzyści i zysków, które są poza zasięgiem rywali. W tekście dla „Plusa Minusa” „Osiem cywilizacji, trzy internety” precyzowałem, że dominacja Amerykanów jako dostawców najczęściej używanych narzędzi do przeczesywania sieci (Google) i społecznego porządkowania jej (Facebook) rozlewa się daleko poza cywilizację zachodnią (a więc poza Amerykę Północną, Europę i Australię). Algorytmy USA dominują też w Ameryce Południowej, Afryce, w krajach arabskich czy w Indiach i w części terenów cywilizacji konfucjańskiej. Z kolei algorytmy chińskie (Baidu i Qzone) wiodą prym w samych Chinach, a rosyjskie (Yandex i VKontakte) w Rosji oraz jej geopolitycznych okolicach. Zarówno Chiny, jak i Rosja obwarowały swoje algorytmy pewnymi zasadami i umocowaniami, które blokują lub utrudniają penetrację „swojego” terytorium konkurencji. Dlatego dyskutując dziś o internecie, powinniśmy mówić nie o jednym, ale trzech internetach jako trzech luźno powiązanych ze sobą klastrach opartych o częściowo tylko zbieżne zasady.

Czy wypada więc pogodzić się ze status quo, w którym sieci można się wyłącznie poddać? Czy mamy zakładać, że prosty człowiek nie zrozumie algorytmu i nie będzie potrafił go kontrolować, bo przecież każda wystarczająco skomplikowana technologia jest nieodróżnialna od magii? Niekoniecznie.

Od kapitalizmu nadzoru do kapitalizmu roju

Shoshana Zuboff, autorka książki „Era kapitalizmu nadzoru”, zwraca uwagę, że myślenie o człowieku jako biernym podmiocie działań wielkich firm big tech psuje demokrację. Taka narracja opłaca się oczywiście firmom z grupy GAFA (Google, Amazon, Facebook, Apple) i im podobnym, czyli kapitalistom nadzoru i inwigilacji (surveillance capitalists). Propagują oni kulturę oddawania prywatności za cenę różnych ułatwień codziennego życia („daj nam dostęp do danych, a lepiej zorganizujemy twoje doświadczenie w sieci”). Według Zuboff „kapitaliści nadzoru nie różnią się niczym od innych kapitalistów w ich postulacie wolności od jakichkolwiek ograniczeń. Są zwolennikami własnej »wolności do« wprowadzania każdego rodzaju nowych praktyk, a przy tym agresywnie promują »wolność od« ograniczeń prawnych i regulacji”. Są w tym bardzo skuteczni, bo najpierw – zasadnie – korzystają z wolności do uporządkowania globalnej wiedzy, a następnie wykorzystują przewagę osiągniętą dzięki tej wiedzy do konserwowania i poszerzania własnej wolności. Ze względu na nieprzejrzyste zasady akumulacji i wykorzystania wiedzy, załamują tym jednak dystrybucję wiedzy w społeczeństwie.

Według Zuboff kapitaliści nadzoru dążą do zastąpienia niepewności rynków predykcyjną pewnością opartą na wiedzy o człowieku, a ich ostatecznym celem jest zmapowanie i przyczynowe powiązanie wszystkiego ze wszystkim. Dzięki temu będą mogli wreszcie kreować potrzeby ludzkie i je przewidywać – aby równoważyć popyt i podaż, osiągając uniwersalną stabilność.

Choć Zuboff tego nie mówi, jest to wypisz wymaluj scenariusz z „Nowego Wspaniałego Świata” Aldousa Huxleya. Świat Huxleya to miejsce, gdzie wszystko, począwszy od ekonomii przez konsumpcję aż po długość życia, zostaje zautomatyzowane i zoptymalizowane tak, by zapewnić pokój, zmysłową radość i stabilność społeczną. Właśnie dzięki lepszej wersji kapitalizmu nadzoru. Jedno, czego u Huxleya brakuje, to wolność – jej poświęcenie jest kosztem koniecznym postępu.

Jak daleko jesteśmy od tego świata? Zacytujmy sławne słowa Erica Schmidta, byłego CEO Google’a: „Nie musisz nawet już nic pisać. Wiemy, gdzie jesteś. Wiemy, gdzie byłeś. Wiemy mniej więcej, o czym myślisz”. To był zamierzchły rok 2010 – w 2019 r. nasi nadzorcy wiedzą znacznie więcej. Według Zuboff jesteśmy na rozdrożu – albo wzmocnimy demokratyczne mechanizmy kontroli nad cyfrowym kapitalizmem, albo umożliwimy dalszy wzrost wiedzo-władzy big tech, a przez to podryfujemy w kierunku, w którym część Azji prowadzą dziś Chiny. Czyli w kierunku autorytaryzmu, zupełnej inwigilacji, ale też zupełnej przewidywalności i stabilności społecznej.

O tym właśnie dylemacie pisałem w 2018 w „Plusie Minusie” w tekście „Nowy wspaniały rój”. Proces kuszenia Zachodu przez niewątpliwe dobro płynące z inwigilacji nazwałem „konfucjanizacją Zachodu”. Dlaczego? Bo to właśnie w cywilizacji konfucjańskiej (do której należą Chiny) technologie inwigilacyjne padły na żyzną glebę kulturową. Łatwo jest tam je stosować, bo w mentalności konfucjańskiej całość jest ważniejsza niż jednostka, a ul ważniejszy od pszczoły. Z kolei w cywilizacji zachodniej jednostka jest tak samo ważna jak całość, a ul – tak samo jak pszczoła. Ma to swoje konsekwencje polityczne: podczas gdy w Chinach powiedzenie „cokolwiek służy ulowi, służy też pszczole” jest powszechnie znaną i akceptowaną mądrością ludową, w świecie Zachodu budzi wątpliwości; podczas gdy na Zachodzie ciągle ważymy plusy inwigilacji (stabilność, przewidywalność, bezpieczeństwo) z minusami (kradzież wolności, hamowanie kreatywności, tendencje do nadużyć), to Chińczycy „od zawsze” wiedzieli, że jednostka jest mniej ważna. I dlatego tak sprawnie wprowadzili System Zaufania Społecznego, który nieustannie zbiera dane o twoim kręgu przyjaciół, prawomyślnym zachowaniu, a nawet korzystaniu z toalet i kupionym alkoholu. Na tej podstawie wnioskuje, czy dobrze służysz ulowi i daje kary lub nagrody mogące ułatwić życie lub zmienić je w piekło.

Zgodnie z opisaną wyżej nomenklaturą kapitalizmu, dzisiejszy kapitalizm nadzoru jest więc wstępem albo do kapitalizmu roju albo do żmudnej i trudnej reformy dotychczasowej formy cyfrowego kapitalizmu. Co zatem robić? Jak żyć?

Najpierw na Zachodzie

Reformę myślenia zacznijmy od przyznania, że świata nie zbawimy. A przynajmniej nie od razu. Na terytorium Chin czy Rosji autorytarne technologie cyfrowe wrastają już w społeczeństwo. Z punktu widzenia apostołów reformy kapitalizmu to są na razie tereny stracone. Niczym autorytarny władca z „Państwa” Platona, nadzorca w Moskwie czy Pekinie nie ograniczy własnej władzy dla wolności jednostki. Ta bowiem wydaje się mu przereklamowana, a po drugie jest ideologicznym narzędziem zachodniego imperializmu. Projektując reformę kapitalizmu nadzoru, należy raczej założyć, że najpierw będzie wdrażana w obrębie cywilizacji zachodniej, islamskiej, latynoamerykańskiej, afrykańskiej czy tych częściach konfucjańskiej, gdzie totalitaryzm jest kwestionowany.

Druga rzecz, którą musimy odsiać, to bezowocne slogany tech-optymistów powtarzających, że „straszenie algorytmami jest głupie”. Niestety, w dyskusjach na tematy sztucznej inteligencji czy globalnego nadzoru w mediach ten argument pojawia się do znudzenia. Jedna z jego wersji: „Nie straszmy algorytmami, bo przecież tworzą je ludzie, a same w sobie algorytmy nie mają żadnej władzy”. Otóż niestety mają. Algorytmy mają władzę nad ludźmi, nad całym spektrum ich doświadczeń, a w coraz większym stopniu – nad całym ich życiem. Co więcej, algorytmy nie muszą wcale być świadome (jak w filmach s.f.), żeby mieć sprawczość, lub żeby kierować się wewnętrzną logiką. Powtórzmy raz jeszcze, tym razem językiem filozofii: algorytmy nie muszą wykazywać intencjonalności (umiejętności świadomego działania), aby mieć agencyjność (sprawczość, podmiotowość) i wewnętrzną dynamikę strukturalną. Wielu intelektualistów zupełnie o tym zapomina. Oczywiście, obecne algorytmy są często tworzone przez ludzi, ale po pierwsze – ich poziom komplikacji będzie coraz częściej utrudniał twórcom przewidzenie społecznych konsekwencji ich globalnego zastosowania; a po drugie – ludzie tworzący algorytm lub jego ewoluujący zalążek nie muszą mieć wcale interesów spójnych z twoim interesem. Im szybciej przyjmiemy te rzeczy jako oczywiste, tym owocniejsza będzie debata.

Po trzecie, należy założyć, że refleksja nad big tech jest kluczowa dla przyszłości. Nawet miliarder George Soros krytykował Google’a i Facebooka, piętnując w Davos (2018) te firmy jako „przeszkody dla innowacji”; jako firmy, które wykorzystały efekt sieciowy do błyskawicznego, niezrównoważonego wzrostu i nadużywania swojej pozycji. Według Sorosa, choć Facebook i Google ściągają ponad połowę zysków z globalnych reklam w internecie dzięki dystrybucji cudzych treści, to równocześnie nie biorą odpowiedzialności za te treści i nie pozwalają na udział w zyskach ich dostawcom. Ponadto manipulują użytkownikami ze względów reklamowych i chcą wyrobić w nich zgubny automatyzm zachowań. – Właściciele big tech myślą o sobie jak o władcach świata, a tak naprawdę są niewolnikami własnej walki o dominację na rynku – mówił Soros. – A przecież tylko kwestią czasu jest utrata przez USA globalnego monopolu w dziedzinie IT – dodał. Co wtedy? Kto będzie ustalał reguły, jeśli Zachód wypadnie z gry? Kapitaliści roju?

Jeszcze dalej idzie amerykański inwestor Roger McNamee, który wspierał Facebook w początkowej fazie działalności. Teraz napisał książkę „Zucked”, której tytuł stanowi połączenie nazwiska założyciela Facebooka Marka Zuckerberga i słowa „sucked” oznaczającego wciągnięcie kogoś w coś mimo woli. McNamee nazywa Facebooka, Twittera i Google’a „zagrożeniem dla demokracji”. Oskarża te firmy m.in. o obniżenie dochodowości rzetelnego dziennikarstwa i utopienie go pod nawałą dezinformacji. „Dziś każdy ma swoją sprofilowaną tablicę i traktuje ją jako swój własny zestaw »faktów«” – pisze McNamee o bańce informacyjnej, która tworzy się wokół użytkowników. I oskarża big tech o dezinformację dla zysku: algorytmy promują bzdury i propagandę, bo te są bardziej klikalne, a przez to bardziej dochodowe. Co więcej, platformy big tech wyzyskują twórców (muzyki, filmów) i świadomie obniżają komercyjne zyski startupom lub niszczą ich potencjał przez bezproduktywne przejęcia. Z tego względu, twierdzi McNamee, mogłyby być uznane za zagrożenie dla bezpieczeństwa narodowego i podzielone na części, co zmniejszy ryzyko zmowy biznesowej. Tymczasem linia obrony big tech głosi, że firma dostarcza jedynie platformę wymiany informacji, a dbanie o inne rzeczy powinno być domeną rządu.

Prawo – skuteczne narzędzie słabych

Co ciekawe, zarówno Soros, jak i McNamee skłaniają się do tezy, że reforma cyfrowego kapitalizmu może zacząć się w Europie, gdzie inaczej niż w USA definiuje się kwestie prywatności. Obaj z uznaniem mówią o Margrethe Vestager, europejskiej komisarz ds. konkurencji, znanej m.in. z nałożenia na firmy big tech kar za nadużywanie pozycji rynkowej i nielegalne działania (13 mld euro dla Apple’a czy kary dla Facebooka, Microsoftu, Google’a). Vestager dała się niektórym we znaki do tego stopnia, że prezydent USA Donald Trump oskarżył ją o nienawiść do Ameryki. Tymczasem Soros i McNamee twierdzą, że wobec niezdolności big tech do samoregulacji tylko masowe działania konsumentów i prawo mogą być narzędziem zmiany.

Unia Europejska to ciekawy gracz – z jednej strony jest technologicznie zacofana w stosunku do Chin czy USA, bo przespała okres powstawania wielkich kombajnów danych i nie stworzyła ani swojego Google’a, ani Facebooka, ani nawet topowego dostawcy infrastruktury sieciowej. To niedobrze, zwłaszcza w epoce, w której data is the new oil – dane są nową ropą naftową, a każdy z nas – cenną baryłką z danymi. Z drugiej strony UE jest świadoma swojej słabości, nie boi się operować skutecznym narzędziem słabych – prawem międzynarodowym.

Skutki bywają jednak różne. Jedną z porażek UE jest niedojście do porozumienia w 2019 r. w sprawie podatku cyfrowego, który nakładałby na big tech konieczność płacenia 3-proc. podatku z zysków wygenerowanych na terenie UE (porażka to wynik weta m.in. Irlandii, gdzie siedzibę ma europejski Google). Prezydent Francji Emmanuel Macron tak się wściekł z tego powodu, że jednostronnie wprowadził podobny podatek u siebie, co spowodowało wielkie spięcie z prezydentem USA, włącznie z groźbą wstrzymania importu francuskich win. Kolejna runda negocjacji odbywać się będzie już w szerszym formacie Organizacji Współpracy Gospodarczej i Rozwoju (OECD), z udziałem USA.

Niewątpliwym sukcesem UE jest jednak wprowadzenie w 2016 r. rozporządzenia o ochronie danych osobowych (RODO), które m.in. ma gwarantować, że obywatele UE zachowują prawo do swoich danych niezależnie od miejsca pobytu i muszą wyrażać aktywną zgodę na ich zbieranie.

Ten kierunek zmian w UE powoduje, że inne kraje ośmielają się i przejmują prawodawczą inwencję. Dobrym przykładem jest Australia, która w lipcu 2019 r. ogłosiła powstanie biura nadzoru nad algorytmami big tech w ramach komisji ds. konkurencji i konsumentów. Nowy dział będzie miał prawo wyciągania od GAFA „istotnych” informacji na temat działania algorytmów – dotychczas otoczonych aurą tajności. Wprowadzi także obowiązek informowania opinii publicznej m.in. o planowanych modyfikacjach algorytmu.

Bunt ludzkich bukłaków

Takie otwarcie i nadzór algorytmu to warunek kolejnych działań – przekazania choćby części władzy nad algorytmami ludziom oraz rządom. W jakiej formie? Zupełnie wykonalne jest np. stworzenie suwaka preferencji dla Facebooka, który ustawiałby czułość selekcji treści według zmiennych wybranych przez użytkownika, takich jak zgodność z moimi poglądami (duża/mała), poziom rzetelności źródła, typ zawartości etc. Wymagałoby to otwartych politycznych deklaracji Facebooka, że np. poziom zgodności z moimi przekonaniami nie może zostać ustawiony na 100 proc., bo badania wskazują, że takie osoby ulegają szkodliwemu zasklepieniu w bańce informacyjnej.

Kolejny sposób to stworzenie regionalnych nakładek na algorytmy, na przykład dla portali typu YouTube. Możliwa jest sytuacja, w którym rząd Niemiec czy Indii skłania się do prośby o lepsze pozycjonowanie lokalnych materiałów związanych z jakąś istotną z punktu widzenia edukacyjnego polityką publiczną – oczywiście dla połączeń pochodzących z tych krajów. To z kolei wymagałoby jasnych deklaracji, jakie są wartości YouTube’a, i do jakiego stopnia z podobnych nakładek mogłyby korzystać państwa autorytarne. Taka jasność byłaby jednak lepsza niż dzisiejsza zupełna nieprzejrzystość. Obecnie algorytm portalu YouTube np. chętniej podsuwa użytkownikowi teledyski tych twórców, którzy mają z nimi niejawne umowy, za to ukrywa treści od tych, którzy np. nie produkują wystarczającej liczby materiałów na tydzień. W efekcie YouTube po cichu staje się nie platformą, ale pracodawcą.

Rządy mogłyby też ustalić maksymalny poziom penetracji i wiązania danych przez algorytmy. Chodzi o to, że z każdym kolejnym powiązaniem danych (np. związanie twoich danych Gmaila z historią YouTube’a) rośnie ich wartość rynkowa. A więc rosną też twoje koszty, bo przecież twoją walutą są dane! Dlatego państwo mogłoby ze względów bezpieczeństwa ustalić np. maksymalny poziom wiązania danych, tak by wnioski i wiązki pewnego typu nie były możliwe. Zakazanym wiązaniem byłoby np. szacowanie twojej zamożności na podstawie tego, ile wydajesz na leki. Można by też rozważyć gratyfikację finansową big tech dla ludzi zgadzających się na szczególnie wysoką intruzywność algorytmu. Byłoby to sensowne, szczególnie gdyby zmienić klasyfikację prawną usług sieciowych z „darmowych” na barter „usługi za dane”.

W podobnym kierunku idzie częściowo pilotażowy program DECODE, sfinansowany w ramach Horyzontu 2020 Komisji Europejskiej. Amsterdam i Barcelona testują obecnie tworzenie otwartego zbioru danych (open data commons) jako publicznego rezerwuaru, który każdy z nas – producentów danych – mógłby okiełznać, decydując, jakie części cyfrowego śladu udostępnia, komu i na jakich warunkach. Być może podobny kierunek zmian doprowadzi za jakiś czas do sytuacji, w którym big tech będzie jedynie zakontraktowanym dysponentem, a nie właścicielem informacji na nasz temat.

Pozostaje pytanie, czy Polska jest w stanie podłączyć się pod wzbierający megatrend deregulacji big tech na Zachodzie, generując jakąś wartość dodaną? Widać wiele nisz rynkowych w tym zakresie, z którymi związanych jest wiele działań. Począwszy od podatku cyfrowego, zwracającego regionom część zysków z danych, przez demokratyzację algorytmów (możliwości kalibracji), otwarcie algorytmów (publiczna kontrola), lokalne nakładki na algorytmy (zależne od polityki kraju), aż po zmianę kategoryzacji prawnej i operacjonalizacji danych w obrębie usług sieciowych. Pomysłów jest więcej. Ale żebyśmy mogli na nich zarobić, najpierw musimy uwolnić wyobraźnię i uodpornić się na androny o tym, że reforma cyfrowego kapitalizmu to nie realna możliwość tylko „straszenie algorytmami”. Jako ludzkie bukłaki na dane musimy znać swoją wartość… Jakkolwiek to zabrzmi. ©℗

Dr Grzegorz Lewicki – dziennikarz, filozof, politolog, konsultant ds. prognostyki. Współpracuje m.in. z międzynarodowymi firmami konsultingowymi, Akademią Sztuki Wojennej i Polskim Instytutem Ekonomicznym. Kontakt: www.greglewicki.com

Tekst pochodzi z Plusa Minusa

Opinie i komentarze
Odpowiedzialne innowacje. Jak mądra będzie „smart” wieś?
Opinie i komentarze
Odpowiedzialne innowacje: Moralność maszyn, czyli liczne pytania natury etycznej
Opinie i komentarze
Jan Widacki: Modernizacja stacji bazowej telefonii komórkowej nie musi być rozbudową
Opinie i komentarze
Prof. Jan Widacki: Miliardy za częstotliwości kosztem inwestycji?
Materiał Promocyjny
Najlepszy program księgowy dla biura rachunkowego
Opinie i komentarze
Michał Targiel, partner PwC Polska: Inwestycje w AI warunkiem przetrwania
Materiał Promocyjny
„Nowy finansowy ja” w nowym roku