Aktualizacja: 02.10.2025 20:44 Publikacja: 24.09.2025 04:59
Dla człowieka złośliwy prompt może wyglądać jak przypadkowy ciąg znaków lub być całkowicie niewidoczny. Dla maszyny jest to jednak jednoznaczne polecenie
Foto: shutterstock
Okazuje się, że narzędzia, które mają wspierać pracowników, mogą zostać obrócone przeciwko firmie. Ataki typu indirect prompt injection pozwalają hakerom na przejmowanie kontroli nad narzędziami generatywnej sztucznej inteligencji w celu kradzieży danych, manipulacji i sabotażu – a wszystko to dzieje się bez wiedzy i świadomego udziału użytkownika.
Porozumienie w sprawie ceł, podpisane przez Komisję Europejską z Donaldem Trumpem, miało być „all inclusive”. J...
Tylko 5 proc. firm potrafi przygotować wymagany przez dyrektywę NIS2 raport „poincydentalny”, a mniej niż co trz...
Część tradycyjnych galerii handlowych znika z miast, ale parki kwitną. Powodem są m.in. zmieniające się oczekiwa...
Do końca 2025 r. niemal każda aplikacja biznesowa będzie mieć wbudowanych asystentów AI – prognozuje Gartner. Al...
Ostatni kwartał 2025 r. rozpoczął się obiecującym odczytem PMI dla polskiego sektora przetwórczego. Ekonomiści s...
Masz aktywną subskrypcję?
Zaloguj się lub wypróbuj za darmo
wydanie testowe.
nie masz konta w serwisie? Dołącz do nas