Cała powyższa część artykułu została napisana przez AI. W taki sposób algorytmy ChatGPT odpowiedziały na naszą prośbę o „przygotowanie artykułu o tym, jak w nieodległej przyszłości sztuczna inteligencja konwersacyjna – podobna do ChatGPT – znajduje zastosowanie w konkretnych branżach i sektorach gospodarki”. Zwróciliśmy się, by algorytm wymienił kilka przykładów, w których „ChatGPT przyszłości” zastępuje ludzi w pracy, a także takie, w których wspiera człowieka w wykonywaniu obowiązków. Takie zadanie AI zajęło kilkanaście sekund. W sieci od wielu dni głośno jest o możliwościach tego narzędzia od OpenAI – potrafi wypluwać z siebie opowiadania dla dzieci (pewien Pakistańczyk wydał już książkę z tymi historyjkami) czy odpowiadać na pytania natury filozoficznej. Eksperci wyliczają zawody, które w ciągu najbliższych lat przestaną przez nią istnieć.
Prosta droga do szerzenia dezinformacji
Bartosz Baziński, programista, założyciel firmy technologicznej SentiOne, która od 11 lat buduje zaawansowane modele sztucznej inteligencji do automatyzacji obsługi klienta, ostrożnie podchodzi do zachwytów nad możliwościami ChatGPT. Twierdzi, że największą jego zaletą jest to, że został zbudowany na gigantycznej wręcz ilości danych. – I właśnie to stoi za jego sukcesem, i powoduje, że odpowiedzi bota są takie zgrabne, zbudowane ze zdań złożonych i pięknie opisują abstrakcyjne pojęcia. Po prostu dostał bardzo dużo danych wejściowych do nauki – tłumaczy ekspert. – Niestety, taki generyczny model ma też wady. ChatGPT to tzw. blackbox, bot typu „pytanie–odpowiedź”. Generuje odpowiedzi, ale zupełnie nie rozumie, o co został zapytany – nie orientuje się w rzeczywistości, nie osadza informacji kontekście – kontynuuje.
Co więcej, ten model AI został zbudowany na niezweryfikowanych danych i nie rozumie znaczenia swoich odpowiedzi. – W rezultacie może wprowadzać w błąd, odpowiedzi mogą być mylące, nieprecyzyjne, a nawet zawierające fałszywe informacje. A to już droga do szerzenia dezinformacji – ostrzega Baziński.
Tak było w przypadku bota Tay, zbudowanego przez Microsoft na danych z Twittera – szybko zaczął rozpowszechniać rasistowskie treści.