ChatGPT jest sensacją ostatnich miesięcy, w ciągu tygodnia zbudował bazę ponad 1 mln użytkowników. Jego twórca, czyli spółka OpenAI, prowadzi obecnie rozmowy z inwestorami w celu pozyskania funduszy o wartości 29 mld dol., w tym Microsoft, który chce zaangażować nawet 10 mld dol.

Firma została jednak zbudowana na wyzysku i pracy opłacanej zdecydowanie poniżej standardów. Jak napisał tygodnik „Time”, OpenAI korzystało z outsourcingu kenijskich pracowników zarabiających mniej niż 2 dolary za godzinę. Już poprzednia wersja ChatGPT, czyli GPT-3, potrafiła łączyć zdania, ale jednocześnie była również podatna na tworzenie brutalnych, seksistowskich i rasistowskich treści. Sztuczna inteligencja uczy się tworzyć zdania w oparciu o czytanie jak największej liczby treści z internetu, w których siłą rzeczy pełno jest najróżniejszych wulgaryzmów, obelg i gróźb.

Czytaj więcej

Inteligentne chatboty pomogły co piątemu studentowi. Będą zmiany na egzaminach

chatJuż Facebook pokazał, że możliwe jest zbudowanie sztucznej inteligencji, która może wykrywać mowę nienawiści, aby pomóc usunąć ją z platform społecznościowych. ChatGPT też chciało stworzyć taki detektor, wysłało dziesiątki tysięcy fragmentów tekstu do firmy outsourcingowej w Kenii, aby ręcznie usuwać wątpliwe fragmenty. „Time” podaje, że niektóre z nich szczegółowo opisywały sytuacje, takie jak wykorzystywanie seksualne dzieci, morderstwo, samobójstwo, tortury, samookaleczenie i kazirodztwo. Niektórzy wprost mówili o traumie po czytaniu tak strasznych opisów całymi dniami, co zmusiło ich do zerwania umowy.

Osoby pracujące przy projekcie dostawały według dokumentów od 1,3 do 2 dol. za godzinę. Pośrednicząca w outsourcingu firma Sama dostawała jednak ok. 12 dol. za godzinę pracy, którą zlecała za ułamek tej kwoty.

To nie jedyna kontrowersja wokół sztucznej inteligencji w ostatnich dniach. Agencja fotograficzna Getty Images zapowiedziała pozew wobec spółki Stability AI, która tworzy generator zdjęć oparty także o sztuczną inteligencję. Jej system musi uczyć się w oparciu o zdjęcia, które według agencji masowo były pobierane i wykorzystywane bez żadnych opłat.

Czytaj więcej

Chaos i bezprawie. Sztuczna inteligencja w rodzaju ChatGPT to puszka Pandory

Po analizie 12 milionów obrazów z 2,3 miliarda użytych do trenowania aplikacji Stable Diffusion okazało się, że 15 tys. z nich pochodzi z zasobów  Getty Images. Eksperci wskazują, że łatwo odtworzyć znak wodny agencji na zdjęciach zeskanowanych przez system sztucznej inteligencji.