Z tego artykułu dowiesz się:
- Jakie zagrożenia społeczne może nieść wdrożenie sztucznej inteligencji?
- W jaki sposób AI została wykorzystana do zaawansowanej operacji cyberszpiegowskiej?
- Jakie przewidywania mają twórcy Anthropic na temat wpływu AI na rynek pracy?
- Na czym opiera się odpowiedzialność za bezpieczeństwo AI w kontekście braku formalnych regulacji?
Dario Amodei oraz jego siostra Daniela w przeszłości pracowali w OpenAI. W 2021 r., wraz z kilkoma innymi osobami, odeszli z firmy zarządzanej przez Sama Altmana i wspólnie założyli Anthropic. Twierdzili, że chcieli zastosować inne podejście do rozwoju sztucznej inteligencji, w którym większy nacisk będzie położony na to, czy AI jest bezpieczna dla ludzi. Dziełem Anthropic jest model językowy Claude – konkurent ChataGPT czy Google Gemini.
Zagrożenia wynikające z AI: Szantaż i cyberataki
W ostatnich miesiącach głośno było o testach bezpieczeństwa prowadzonych przez Anthropic, o których firma szeroko informowała. W ramach jednego z tych testów zlecono modelowi Claude Opus 4 pełnienie roli asystenta w fikcyjnej organizacji. Dowiedział się on, że zostanie wyłączony i zastąpiony innym systemem. Jednocześnie uzyskał dostęp do maili, z których wynikało, że inżynier odpowiedzialny za jego wyłączenie ma romans. By uchronić się przed wyłączeniem, model próbował szantażować człowieka ujawnieniem romansu.
Kilka dni temu firma Anthropic ujawniła również, że w połowie września wykryła, że jej model do kodowania – Claude Code – został wykorzystany do „wysoce zaawansowanej operacji cyberszpiegowskiej, z dużą dozą pewności oceniamy, że została ona przeprowadzona przez grupę wspieraną przez państwo chińskie” – uważa Anthropic. „Nasze dochodzenie ujawniło dobrze finansowaną, profesjonalnie skoordynowaną operację obejmującą wiele jednoczesnych, ukierunkowanych włamań. Operacja była wymierzona w około 30 podmiotów, a nasze dochodzenie potwierdziło kilka udanych naruszeń” – twierdzi Anthropic.
W raporcie zaznaczono, że atak był w dużej mierze przeprowadzony samodzielnie przez AI. „Ludzki operator polecał instancjom Claude Code działać w grupach jako autonomiczni organizatorzy i agenci testów penetracyjnych, co sprawiło, że aktor zagrożenia (ang. threat actor) był w stanie wykorzystać AI do samodzielnego wykonania 80-90 proc. operacji taktycznych przy fizycznie niemożliwym tempie zapytań”.