Reklama
Rozwiń
Reklama

Dowody mrocznej strony AI. Współtwórca Anthropic ostrzega przed zagrożeniem

Jeżeli firmy AI nie będą informowały o zmianach, jakie czekają społeczeństwo w związku z wdrożeniem sztucznej inteligencji, skończą „w świecie podobnym do firm tytoniowych albo firm produkujących opioidy, które wiedziały o zagrożeniach, ale im nie zapobiegały” – powiedział w programie „60 Minutes” w CBS News Dario Amodei, prezes Anthropic.

Publikacja: 19.11.2025 14:15

Dziś nie ma żadnych przepisów nakazujących twórcom AI badanie tej technologii pod kątem potencjalnyc

Dziś nie ma żadnych przepisów nakazujących twórcom AI badanie tej technologii pod kątem potencjalnych zagrożeń - zauważa Dario Amodei, współtwórca modelu Cloude

Foto: Adobe Stock

Z tego artykułu dowiesz się:

  • Jakie zagrożenia społeczne może nieść wdrożenie sztucznej inteligencji?
  • W jaki sposób AI została wykorzystana do zaawansowanej operacji cyberszpiegowskiej?
  • Jakie przewidywania mają twórcy Anthropic na temat wpływu AI na rynek pracy?
  • Na czym opiera się odpowiedzialność za bezpieczeństwo AI w kontekście braku formalnych regulacji?

Dario Amodei oraz jego siostra Daniela w przeszłości pracowali w OpenAI. W 2021 r., wraz z kilkoma innymi osobami, odeszli z firmy zarządzanej przez Sama Altmana i wspólnie założyli Anthropic. Twierdzili, że chcieli zastosować inne podejście do rozwoju sztucznej inteligencji, w którym większy nacisk będzie położony na to, czy AI jest bezpieczna dla ludzi. Dziełem Anthropic jest model językowy Claude – konkurent ChataGPT czy Google Gemini.

Zagrożenia wynikające z AI: Szantaż i cyberataki

W ostatnich miesiącach głośno było o testach bezpieczeństwa prowadzonych przez Anthropic, o których firma szeroko informowała. W ramach jednego z tych testów zlecono modelowi Claude Opus 4 pełnienie roli asystenta w fikcyjnej organizacji. Dowiedział się on, że zostanie wyłączony i zastąpiony innym systemem. Jednocześnie uzyskał dostęp do maili, z których wynikało, że inżynier odpowiedzialny za jego wyłączenie ma romans. By uchronić się przed wyłączeniem, model próbował szantażować człowieka ujawnieniem romansu.

Kilka dni temu firma Anthropic ujawniła również, że w połowie września wykryła, że jej model do kodowania – Claude Code – został wykorzystany do „wysoce zaawansowanej operacji cyberszpiegowskiej, z dużą dozą pewności oceniamy, że została ona przeprowadzona przez grupę wspieraną przez państwo chińskie” – uważa Anthropic. „Nasze dochodzenie ujawniło dobrze finansowaną, profesjonalnie skoordynowaną operację obejmującą wiele jednoczesnych, ukierunkowanych włamań. Operacja była wymierzona w około 30 podmiotów, a nasze dochodzenie potwierdziło kilka udanych naruszeń” – twierdzi Anthropic.

W raporcie zaznaczono, że atak był w dużej mierze przeprowadzony samodzielnie przez AI. „Ludzki operator polecał instancjom Claude Code działać w grupach jako autonomiczni organizatorzy i agenci testów penetracyjnych, co sprawiło, że aktor zagrożenia (ang. threat actor) był w stanie wykorzystać AI do samodzielnego wykonania 80-90 proc. operacji taktycznych przy fizycznie niemożliwym tempie zapytań”.

Reklama
Reklama

Czytaj więcej

Zaskakujące wyniki badań: AI miała znacząco przyspieszyć pracę, a ją spowalnia

Troska o bezpieczeństwo czy strategia biznesowa?

Polityka informacyjna Anthropic dotycząca zagrożeń związanych z wdrażaniem AI była jednym z tematów programu w CBS News. Anderson Cooper, prowadzący „60 Minutes”, przypomniał, że bywa ona obiektem krytyki. Firmie zarzuca się m.in. sianie paniki, ale też to, że jej ostrzeżenia związane z bezpieczeństwem AI to tak naprawdę element strategii biznesowej. Cooper zapytał o to Amodei: „Niektórzy mówią o Anthropic, że to tylko »teatr bezpieczeństwa«, że to dobry branding, dobra strategia biznesowa. Dlaczego ludzie mieliby wam ufać?”

„To nie jest teatr bezpieczeństwa. To rzeczy, które model może zrobić. W niektórych przypadkach będzie to zależało od przyszłości i nie zawsze będziemy mieli rację, ale staramy się działać najlepiej, jak potrafimy” – odpowiedział Amodei. Wcześniej w rozmowie stwierdził, że „jedną z dróg myślenia o Anthropic jest to, że w pewnym sensie próbujemy założyć zderzaki czy zabezpieczenia dla tego eksperymentu”. Mówiąc o eksperymencie – miał na myśli AI.

Twórcy Anthropic przyznają, że fakt, że firma technologiczna, twórca danej technologii, tak wiele mówi o tym, co może pójść nie tak w związku z jej wdrożeniem oraz o jej wpływie na społeczeństwo, jest niezwykły. W ich ocenie jednak firmy powinny to robić. Jeśli nie, mogą skończyć w świecie „podobnym do firm tytoniowych albo firm produkujących opioidy, które wiedziały o zagrożeniach, ale o nich nie mówiły i na pewno im nie zapobiegały”. 

AI wyeliminuje połowę miejsc pracy dla pracowników umysłowych?

W rozmowie Dario Amodei przypomniał także swoje wcześniejsze przewidywania dotyczące tego, że AI osiągnie taki poziom, że „będzie mądrzejsza od większości lub wszystkich ludzi pod większością lub każdym względem”. Potwierdził również swoje wcześniejsze słowa dotyczące wpływu AI na rynek pracy. W jego ocenie „sztuczna inteligencja może wyeliminować połowę wszystkich stanowisk pracy dla pracowników umysłowych na poziomie podstawowym i spowodować wzrost bezrobocia do 10-20 proc. w ciągu najbliższych pięciu lat”.

Reklama
Reklama

Bezpieczeństwo AI w rękach kilku osób

Kolejny wątek poruszony w programie „60 Minutes” dotyczył faktu, że zajmowanie się bezpieczeństwem AI i przeciwdziałanie ewentualnym zagrożeniom, jakie niesie ta technologia (wynikającym chociażby z faktu, że może być ona wykorzystywana przez przestępców), zależą dziś tak naprawdę od dobrej woli firm, które się tym zajmują. W praktyce – są to decyzje kilku osób. Nie ma żadnego prawa, które zobowiązywałoby twórców sztucznej inteligencji do przeprowadzania testów bezpieczeństwa. To w dużej mierze firmy – i ich liderzy – same muszą się kontrolować. Dario Amodei wyjaśnił, że jest to jeden z powodów, dla których zawsze opowiadał się za „odpowiedzialną i przemyślaną” regulacją tej technologii.

Z tego artykułu dowiesz się:

  • Jakie zagrożenia społeczne może nieść wdrożenie sztucznej inteligencji?
  • W jaki sposób AI została wykorzystana do zaawansowanej operacji cyberszpiegowskiej?
  • Jakie przewidywania mają twórcy Anthropic na temat wpływu AI na rynek pracy?
  • Na czym opiera się odpowiedzialność za bezpieczeństwo AI w kontekście braku formalnych regulacji?
Pozostało jeszcze 94% artykułu

Dario Amodei oraz jego siostra Daniela w przeszłości pracowali w OpenAI. W 2021 r., wraz z kilkoma innymi osobami, odeszli z firmy zarządzanej przez Sama Altmana i wspólnie założyli Anthropic. Twierdzili, że chcieli zastosować inne podejście do rozwoju sztucznej inteligencji, w którym większy nacisk będzie położony na to, czy AI jest bezpieczna dla ludzi. Dziełem Anthropic jest model językowy Claude – konkurent ChataGPT czy Google Gemini.

Pozostało jeszcze 92% artykułu
Reklama
Globalne Interesy
Firmy już zwalniają pracowników. „Ojciec chrzestny AI” ostrzega, że nie ma innego wyjścia
Technologie
AI nie słucha ludzi, którzy chcą ją wyłączyć. Zaskakujące wyniki testów
Globalne Interesy
Złowieszcza prognoza. Ekspansja AI to bezrobocie i narodziny „trwałej klasy niższej”
Technologie
Zaskakujące wyniki badań: AI miała znacząco przyspieszyć pracę, a ją spowalnia
Materiał Promocyjny
Jak budować strategię cyberodporności
Technologie
Tajemnica długowieczności. Sensacyjne wyniki badania naukowców
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama