Reklama

Monika Różycka: Zaufanie w czasach AI. Kto dziś prowadzi stado?

AI może wspierać nas w analizie. Ale to my – ludzie – jesteśmy odpowiedzialni za nadawanie światu znaczeń. To my jesteśmy jego strażnikami: pamięci, emocji, wartości i sensu.

Publikacja: 20.09.2025 10:33

Sztuczna inteligencja nie zna ryzyka jako emocji, tylko jako kalkulację

Sztuczna inteligencja nie zna ryzyka jako emocji, tylko jako kalkulację

Foto: Adobe Stock

W środku sawanny, gdzie słońce bezlitośnie wypala horyzont, stado słoni rusza powoli w kierunku nieznanym młodszym osobnikom. Nie ma mapy, nie ma przewodnika w klasycznym sensie. Jest matka-przewodniczka, najstarsza słonica, która przez lata poznała miejsca, gdzie można znaleźć wodę w porze największej suszy. Jej decyzje nie wynikają z przewagi fizycznej, lecz z zaufania zakorzenionego w doświadczeniu. Gdy idzie, reszta podąża za nią. Nie dlatego, że muszą. Ale dlatego, że wiedzą: ona wie.

Czy dane mogą zastąpić doświadczenie?

Zaufanie oparte na doświadczeniu to jedna z najstarszych form przywództwa i jedna z tych, które coraz trudniej odnaleźć w świecie rządzonym przez dane. Gdy sztuczna inteligencja zaczyna odgrywać coraz większą rolę w analizie, przewidywaniu i sugerowaniu kierunków działania, warto zadać pytanie: czy jesteśmy gotowi, by AI pełniła funkcję matriarchini? Czy dane mogą zastąpić doświadczenie?

Dziś, w świecie pełnym technologii, w którym decyzje są podejmowane w ułamkach sekund przez algorytmy, coraz częściej zadajemy sobie pytanie: czy my również nie powinniśmy iść za kimś lub czymś, bo „wie” lepiej niż my? A może tym „kimś” miałaby być… sztuczna inteligencja?

AI nie przeżywa. Nie odczuwa emocji, choć może zostać zaprojektowana tak, aby je rozpoznawać, analizować, a nawet modelować

Zaufanie do doświadczenia

W stadach słoni afrykańskich matriarchat nie jest symbolem władzy, ale systemem przetrwania. To dojrzała samica przewodzi wędrówkom, bo pamięta. Ma za sobą dziesiątki porachunków z suszą, drapieżnikami, niebezpiecznym terenem. Jej „baza danych” to realne przeżyte sytuacje, przefiltrowane przez emocje, intuicję i konkretne rezultaty. To mądrość, która zawsze jest osadzona w kontekście.

Reklama
Reklama

Jak pokazują badania zespołu McComb i Moss (2011), starsze matriarchinie podejmują trafniejsze decyzje w obliczu zagrożeń, lepiej rozpoznają odgłosy drapieżników i szybciej reagują na niebezpieczeństwo. Ich wiek i doświadczenie zwiększają szanse przeżycia całej grupy. Matriarchini podejmuje decyzje nie dlatego, że musi, lecz dlatego, że potrafi i nikt nie kwestionuje jej wiedzy. Jej przywództwo jest zgodą stada, a nie przymusem. Opiera się na uznaniu zdolności do trafnego rozpoznania rzeczywistości.

Czytaj więcej

AI rozsadzi naszą cywilizację? Alarmujące badania Francuzów o rewolucji w ludzkim umyśle

Co potrafi AI?

Zwolennicy sztucznej inteligencji podkreślają, że AI ma dostęp do większej ilości informacji niż jakikolwiek człowiek. Analizuje dane z całego świata, uczy się z niezliczonych przypadków, znajduje wzorce tam, gdzie ludzki umysł widzi tylko chaos. To prawda, ale jest różnica między danymi a doświadczeniem. Dane są zbiorem faktów. Doświadczenie to sposób ich przeżycia.

AI nie przeżywa. Nie odczuwa emocji, choć może zostać zaprojektowana tak, aby je rozpoznawać, analizować, a nawet modelować. Można jej opisać, czym jest strach, zmęczenie, napięcie. Można wprowadzić do systemu dane o tym, jak człowiek podejmuje decyzję w sytuacji zagrożenia. Ale to wciąż nie jest emocja, tylko jej symulacja. To wiedza oparta na opisie, a nie przeżyciu.

AI może „wiedzieć”, że stado będzie potrzebowało postoju, bo wcześniej w podobnych warunkach osobniki wykazywały oznaki zmęczenia. Ale nie rozumie milczenia, które zapada, gdy wszyscy czekają przed podjęciem decyzji. Nie czuje lęku związanego z odpowiedzialnością. Nie zna ryzyka jako emocji, tylko jako kalkulację. To różnica subtelna, ale istotna. Zwłaszcza w świecie, który coraz częściej zamienia zaufanie do pamięci i przeżyć na zaufanie do przewidywalności i korelacji.

W przypadku AI często brakuje nam pewności, że rozumie, dla kogo działa. A bez tego, nawet najbardziej precyzyjne dane mogą nie wystarczyć, by zasłużyć na zaufanie

Reklama
Reklama

Wartości, na których budujemy

Badacze zaufania, m.in. Mayer, Davis i Schoorman, opisali tzw. model ABI, według którego ufamy tym, których postrzegamy jako kompetentnych (ability), życzliwych (benevolence) i uczciwych (integrity). W swojej koncepcji MITrust rozwijam ten model, ujmując zaufanie jako proces oparty na wartościach, które tworzą jego trwałą architekturę.

Kluczową rolę odgrywa tu wiarygodność (credibility), klasycznie uznawana za fundament zaufania, oparta na spójności między słowami a czynami. Sprawiedliwość (justice), jako uzasadnione różnicowanie i docenianie, oparte na zgodności z prawdą, uznaniu wkładu i szacunku dla podjętego wysiłku. Komunikacja (communication) jest codzienną praktyką obecności, wymianą istotnych informacji, która tworzy przestrzeń do współpracy. Współpraca (collaborativity) opiera się na wspólnych celach i wzajemnej odpowiedzialności, wzmacniając relacyjność i zakorzeniając zaufanie w działaniu. Autentyczność (authenticity) to wewnętrzna spójność i odwaga bycia sobą – warunek, by lider, ale i każdy członek zespołu, mógł być postrzegany jako wiarygodny. Wreszcie, zaufanie do siebie (self-trust) to pewność działania, motywacja i źródło osobistego wpływu, bez którego nie zainicjujemy relacji opartych na zaufaniu.

W takim ujęciu AI jest narzędziem, które rezonuje z wartościami grupy, a nie substytutem ludzkiego doświadczenia i przywództwa. W przypadku AI często brakuje nam pewności, że rozumie, dla kogo działa. A bez tego, nawet najbardziej precyzyjne dane mogą nie wystarczyć, by zasłużyć na zaufanie.

Gdy dane nie wystarczają

W medycynie AI już dziś wspiera lekarzy w podejmowaniu decyzji diagnostycznych. Analizuje tysiące przypadków, by wskazać najbardziej prawdopodobne scenariusze, przewidzieć skutki terapii, zasugerować kolejne kroki. Ale nawet jeśli wskazania są trafne klinicznie, lekarze dobrze wiedzą, że nie każdy pacjent chce leczyć się za wszelką cenę.

Algorytm może wyliczyć, że szansa na przeżycie wzrasta o 12 proc. przy terapii X, ale nie wie, że pacjent jest zmęczony, zrezygnowany lub zwyczajnie boi się szpitala. AI nie rozumie sensu bólu, który niektórzy pacjenci są gotowi ponieść, a inni nie. Dlatego decyzja medyczna to nie tylko obliczenie, ale też dialog, empatia, współodczuwanie.

Fascynacja sztuczną inteligencją to często ucieczka od niepewności. W świecie przeładowanym informacją i presją decyzyjną, szukamy przewodnika, który „wie lepiej”. AI kusi obietnicą bezbłędności, neutralności, szybkiej odpowiedzi. Ale im bardziej oddajemy jej odpowiedzialność, tym bardziej odsuwamy od siebie to, co czyni decyzję naprawdę ludzką: wątpliwość, refleksję, współodczuwanie. Może właśnie dlatego dziś bardziej niż matriarchini potrzebujemy przewodnika, który… się waha.

Reklama
Reklama

Sztuczna inteligencja ma ogromny potencjał, ale nie powinna aspirować do roli matki-przewodniczki. 

Kto podejmie decyzję?

Pytanie o to, kto podejmuje decyzje wcale nie jest retoryczne. W wielu miejscach na świecie podejmowanie decyzji przesuwa się z człowieka na system: AI rekrutuje pracowników, decyduje o kredytach, analizuje ryzyko przestępstwa. Zaczynamy żyć w świecie, gdzie dane mają większy autorytet niż doświadczenie.

To niebezpieczny moment. Bo jeśli przestaniemy ufać ludziom, którzy przeżyli, a zaczniemy ufać tylko tym, którzy policzyli, przestaniemy być stadem. Staniemy się zbiorem jednostek ślepo idących za ekranem.

Sztuczna inteligencja ma ogromny potencjał, ale nie powinna aspirować do roli matki-przewodniczki. I my nie powinniśmy jej tej roli nadawać. Zaufania, jakie słonie mają do swojej przywódczyni, nie da się zaprogramować. Nie powstaje z analizy danych, lecz z lat wspólnego życia i wspólnych decyzji. To zaufanie jest ucieleśnione, emocjonalne, zakorzenione w pamięci.

AI może wspierać nas w analizie. Ale to my – ludzie – jesteśmy odpowiedzialni za nadawanie światu znaczeń. To my jesteśmy jego strażnikami: pamięci, emocji, wartości i sensu. Bo znaczenie nie rodzi się z przetwarzania danych, lecz z uczestnictwa. Z bycia w świecie, z uwikłania w czas, ciało, relację. Maszyna nie wie, co znaczy utrata, choć może ją opisać. Nie czuje tęsknoty, wstydu, odpowiedzialności. To człowiek – istota śmiertelna – nadaje światu sens. W tym znaczeniu nie jesteśmy tylko użytkownikami technologii, ale jej etycznym i egzystencjalnym kontekstem. To my czuwamy nad tym, co naprawdę ma wartość.

Reklama
Reklama

Maszyna nie mierzy się ze skutkami swoich wyborów. Nie zna ryzyka ani ciężaru pomyłki – nie dlatego, że się nie myli, ale dlatego, że nie ponosi odpowiedzialności. AI może symulować intencjonalność, emocje, a nawet lęk przed wyłączeniem, ale to wyłącznie efekt treningu na ludzkich narracjach, a nie przeżycia.

Maszyna może „mówić, że boi się śmierci”, ale nie wie, czym ona jest. Nie wie, bo nie żyje. Nie cierpi, nie ponosi strat, nie zmienia się przez doświadczenie. Nie ma ciała, więzi, historii. Nie ma egzystencji. A jeśli jutro AI powie nam, że najlepsza droga prowadzi przez pustynię – czy pójdziemy nią tylko dlatego, że tak mówią dane?

O autorce

Dr hab. Monika Różycka

Adiunkt w Instytucie Zarządzania Uniwersytetu Szczecińskiego.

W środku sawanny, gdzie słońce bezlitośnie wypala horyzont, stado słoni rusza powoli w kierunku nieznanym młodszym osobnikom. Nie ma mapy, nie ma przewodnika w klasycznym sensie. Jest matka-przewodniczka, najstarsza słonica, która przez lata poznała miejsca, gdzie można znaleźć wodę w porze największej suszy. Jej decyzje nie wynikają z przewagi fizycznej, lecz z zaufania zakorzenionego w doświadczeniu. Gdy idzie, reszta podąża za nią. Nie dlatego, że muszą. Ale dlatego, że wiedzą: ona wie.

Pozostało jeszcze 94% artykułu
/
artykułów
Czytaj dalej. Subskrybuj
Reklama
Opinie i komentarze
Czy zakupy zagranicznych komputerów kwantowych osłabią polski potencjał badawczy?
Opinie i komentarze
Michał Kanownik: To czas ogromnych szans, ale i dramatycznych wyzwań w cyfryzacji
Opinie i komentarze
Klienci szukają telefonów premium
Opinie i komentarze
Witold M. Orłowski: Włoska lekcja
Opinie i komentarze
Budowa własnych kompetencji cyfrowych, czyli jak radzić sobie z big techami
Reklama
Reklama