DeepSeek, który pojawił się jako wielki hit oferujący możliwości najlepszych modeli ChatGPT, ale za darmo, skusił miliony internautów do zarejestrowania się i ściągnięcia aplikacji na telefon. Eksperci twierdzą, że w tej historii niebywałego sukcesu jest wiele znaków zapytania. Już wiadomo, że chiński bot mocno cenzoruje swoje odpowiedzi, a z drugiej głęboko sięga do prywatności użytkowników.

– Pierwsze czerwone flagi pojawiły się już podczas testów wstępnej wersji modelu. DeepSeek, mimo oficjalnych zapewnień o wykorzystaniu czystego modelu uczenia ze wzmocnieniem, wykazywał zastanawiające zachowania – mówi nam Aws Naser, założyciel AI Superpowers.

Czy DeepSeek jest bezpieczny?

Jak tłumaczy Naser, w prowadzonych przez niego testach chiński model wprost przedstawiał się jako ChatGPT. – A to jednoznacznie wskazuje na wykorzystanie tzw. outputów OpenAI w procesie treningu. I choć obecnie, po aktualizacji, DeepSeek zaprzecza tym powiązaniom, trudno uwierzyć w oficjalną narrację – wyjaśnia ekspert.

Jego zdaniem „legenda” o stworzeniu modelu dorównującego możliwościom ChatGPT za mniej niż 6 mln dol., podczas gdy konkurencja wydaje na takie projekty miliardy, brzmi zbyt pięknie, by mogła być prawdziwa. – A właśnie DeepSeek przyciąga uwagę branży swoją efektywnością kosztową i innowacyjnym podejściem do treningu, wykorzystującym mniejszą liczbę specjalistycznych chipów niż konkurencja. Jednak w świetle powyższych faktów te imponujące osiągnięcia wydają się być wynikiem nie tyle technologicznego przełomu, ile sprytnego wykorzystania istniejących rozwiązań – uważa nasz rozmówca.

Czytaj więcej

Amerykanie skopiują Chińczyków? Panika wśród gigantów i „pokoje wojenne”

Analitycy zwracają uwagę, że Chińczykom „teoretycznie” udało się obniżyć koszty i moc obliczeniową, bo w praktyce, przynajmniej częściowo, DeepSeek opiera się na pomysłach innych firm. System bazuje na układach Nvidia (choć starszych i tańszych), a przy tym wykorzystuje architekturę Llama z otwartym kodem źródłowym (od Mety) czy rozwiązania modelu Qwen firmy chińskiego giganta Alibaba.

Jak jest naprawdę? Nie wiadomo, bo projekt nie jest zbyt transparentny. – Spekuluje się, że firma DeepSeek wykorzystała ogromną infrastrukturę obliczeniową: 10 tys. procesorów H800 oraz 50 tys. H100, co w sumie może być warte ponad 2 mld dol. Co więcej, pojawiają się kontrowersje związane z potencjalnie nielegalnym importem tych chipów do Chin – wylicza Radosław Mechło, doradca ds. AI w BUZZcenter.

Nasze profile behawioralne na celowniku

„Nigdy nie osiągniesz pełnej przejrzystości, biorąc pod uwagę, że większość pracy została wykonana w Chinach” – tak skwitował na platformie X głośny debiut DeepSeek były szef Intela Pat Gelsinger.

Aws Naser zaznacza, że dodatkowo wątpliwości pogłębia kontekst regulacyjny. – DeepSeek obowiązują lokalne przepisy, zatem – jak jest to w przypadku każdej firmy technologicznej w tym kraju – podlega regulacjom wymagającym udostępniania danych chińskim władzom. Rodzi to uzasadnione obawy o bezpieczeństwo tych danych i potencjalną cenzurę – przestrzega założyciel AI Superpowers.

Informacji jest zbieranych wiele, od zwykłych danych osobowych, przez „keystroke patterns or rhythms” (tzw. biometria naszych ruchów na klawiaturze – red.), po dane o użytkowniku pozyskiwane od podmiotów trzecich. Dane użytkowników są szeroko zbierane, a katalog celów, do których mogą być wykorzystywane, pozostaje otwarty

Aleksandra Maciejewicz z kancelarii Lawmore

A o jakie dane chodzi? Wszystkie dane przesyłane przez użytkownika do bota: tzw. inputy i outputy oraz prompty, a także pliki, opinie czy historia czatów. Eksperci, z którymi rozmawialiśmy, przekonują, że DeepSeek jest darmowy, ale nie ma nic za darmo, a opłatą są właśnie takie informacje. Aleksandra Maciejewicz z kancelarii Lawmore wskazuje, iż mogą być one wykorzystywane przez DeepSeek do różnych celów, w tym komercyjnych i analitycznych. – Gdybym miała krótko podsumować politykę prywatności DeepSeek, to ujęłabym to następująco: „twoje dane nie należą do ciebie” – alarmuje.

Jej zdaniem informacje o nas Chińczycy mogą wykorzystać do tworzenia dokładnych profili behawioralnych użytkowników. – A informacji jest zbieranych wiele, od zwykłych danych osobowych, przez „keystroke patterns or rhythms” (tzw. biometria naszych ruchów na klawiaturze – red.), po dane o użytkowniku pozyskiwane od podmiotów trzecich – komentuje Maciejewicz. – Dane użytkowników są szeroko zbierane, a katalog celów, do których mogą być wykorzystywane, pozostaje otwarty – kontynuuje ekspertka.

Ostrzega przy tym, że DeepSeek, nawet gdy usuniemy swoje konto w tej usłudze, może zachować dane użytkownika „tak długo jak jest to konieczne”.

– Korzystając z DeepSeek, należy liczyć się z utratą prywatności – dodaje.

DeepSeek na bakier z wiarygodnością

Trudno też zaufać chińskiej AI, skoro ta jawnie ukrywa fakty. Czasami rozpoczyna udzielanie odpowiedzi na kontrowersyjne pytania dotyczące historii Chin, ale te zaraz znikają z ekranu i pojawia się formułka „porozmawiajmy o czymś innym”. Jednym z takich tematów tabu są protesty na placu Tian’anmen w 1989 r., które zakończyły się masakrą cywilów. DeepSeek R1, choć bez problemu prowadzi wywody na temat średniowiecznej historii Polski, nie odpowie na żadne pytania, które są w niesmak Komunistycznej Partii Chin. – Model R1 nie porusza też tematów takich jak sytuacja w Tybecie czy status Tajwanu – twierdzi Radosław Mechło. I dodaje, że cenzura tego typu rodzi wątpliwości co do rzetelności innych generowanych treści.

Piotr Herstowski, business develompment manager w KODA.ai, podaje, iż DeepSeek stanowi przykład tego, jak cenzura może wpływać na sztuczną inteligencję. – Model konsekwentnie unika lub bagatelizuje kluczowe wydarzenia historyczne, co stawia pod znakiem zapytania jego wiarygodność jako źródło wiedzy. Amerykańskie modele AI natomiast, w odpowiedziach na pytania np. o interwencję w Iraku, często wskazują na złożoność sytuacji i brak twardych dowodów na obecność broni masowego rażenia. Zachowują więc większą obiektywność – przyznaje.

Czytaj więcej

Wartość tej firmy stopniała w dzień o 600 mld dol. Za „rekordem" stoją Chińczycy

Choć Joanna Witek, product lead w firmie Finiata, przekonuje, że modele AI rozwijane na Zachodzie, jak np. ChatGPT, również wykazują pewną stronniczość. Według niej wynika ona z ograniczeń danych szkoleniowych lub polityki unikania kontrowersji. – Jednak narzędzia te starają się uwzględniać różne perspektywy, co pozwala na bardziej zróżnicowane i wyważone odpowiedzi – potwierdza.

Mimo to Radosław Mechło apeluje o spokój. Jego zdaniem dziś widać z jednej strony euforię, a z drugiej obawy względem DeepSeek, a – jak podkreśla – na jednoznaczne oceny tej technologii, szczególnie na tak wczesnym etapie jej rozwoju, jest zbyt wcześnie.