Obecnie za naszą wschodnią granicą nie można korzystać z tej konwersacyjnej sztucznej inteligencji, gdyż OpenAI zamknęło dostęp na kilku rynkach. Użytkownik jest wykrywany na zasadzie geolokalizacji i – jeśli kraj, w którym przebywa, znajduje się na swoistej liście sankcyjnej, nie uruchomi algorytmów. Takie ograniczenia objęły m.in. Rosję, Białoruś i Iran, ale paradoksalnie w tej grupie znalazła się i Ukraina.

Wiceminister Ołeksandr Borniakow wystosował w tej sprawie pismo do OpenAI. „Branża IT zawsze wspiera wartości wolności i demokracji. Ukraina walczy o nie każdego dnia kosztem życia ludzi, którzy starali się zmienić ten świat na lepsze. OpenAI, jak widać, mamy wspólny cel – czekamy na Waszą decyzję. Tylko zjednoczony cywilizowany świat jest w stanie pokonać wroga w tej walce” – napisał przedstawiciel ukraińskiego rządu. Na razie firma nie odpowiedziała.

Czytaj więcej

Hakerzy z Rosji zaprzęgli chatbota ChatGPT do wymuszania okupów. Nowe możliwości

ChatGPT stał się natomiast jednym z tematów rozmów trwającego w Davos forum ekonomicznego. Eksperci wskazywali, że tego typu generatywna sztuczna inteligencja może być wykorzystywana nie tylko do celów cywilnych. O tym, że taka AI może zainteresować wojsko w rozmowie z agencją Reuters mówił Alex Karp, prezes firmy Palantir. A wie co mówi, bo Palantir dostarcza swoją zaawansowaną technologię, służącą automatyzacji rekonesansu, właśnie na Ukrainę. Futurystyczny system pozwala na pobranie, selekcję i integrację danych, po czym automatycznie wybiera i selekcjonuje cele według określonych parametrów. AI sama wskazuje odpowiedni rodzaj broni i jednocześnie monitoruje wynik ataku z wykorzystaniem dronów. – Sztuczna inteligencja może mieć zastosowania wojskowe. Systemy autonomicznie generujące wyniki są oczywiście przydatne na wojnie – skomentował.

Czytaj więcej

Prezes Palantir: Dane trzeba coraz lepiej analizować. Kto to zrozumiał, wygrywa

Nie wiadomo czy i jak algorytmy stojące za ChatGPT mogłyby pomóc Ukraińcom w walce z Rosjanami. Eksperci wielokrotnie wskazywali jednak, że bot od OpenAI może być wykorzystywany do dezinformacji i stać się bronią w rękach hakerów.