Teraz Amerykanie biorą się za ChatGPT. „AI to nie Terminator”

Rosną obawy dotyczące potencjalnego wykorzystania sztucznej inteligencji, w tym botów w rodzaju ChatGPT rodzaju do popełniania przestępstw i rozpowszechniania nieprawdy. Administracja Bidena zastanawia się nad certyfikacją AI.

Aktualizacja: 12.04.2023 13:02 Publikacja: 12.04.2023 10:28

Eric Schmidt, były dyrektor generalny Google, powiedział w Kongresie, że AI nie jest tym, co przedst

Eric Schmidt, były dyrektor generalny Google, powiedział w Kongresie, że AI nie jest tym, co przedstawiają filmy sci-fi takie jak „Terminator”. Kadr z filmu „Terminator 2”

Foto: mat. pras.

Waszyngton sprawdza, czy należy kontrolować narzędzia sztucznej inteligencji w związku z rosnącymi obawami, że technologia ta może zostać wykorzystana do dyskryminacji lub rozpowszechniania szkodliwych informacji – pisze „Wall Street Journal”. Departament Handlu wystosował formalną prośbę o komentarze i wioski (RFC - Request for Comments) na temat tak zwanych środków rozliczalności, w tym tego, czy potencjalnie ryzykowne nowe modele sztucznej inteligencji powinny przejść proces certyfikacji przed ich wydaniem.

Ogromna popularność ChatGPT - dotarł do 100 milionów użytkowników i znacznie szybciej niż jakakolwiek wcześniejsza aplikacja konsumencka - skłonił organy regulacyjne na całym świecie do rozważenia ograniczeń dla tej szybko rozwijającej się technologii.

Chiński regulator internetu zaproponował ścisłe kontrole, które, jeśli zostaną przyjęte, zobowiążą chińskie firmy zajmujące się sztuczną inteligencją do zapewnienia, że ich usługi nie generują treści, które mogłyby zakłócić porządek społeczny lub obalić władzę państwową. Urzędnicy Unii Europejskiej rozważają wprowadzenie nowego prawa, które zakazałoby niektórych usług AI i nałożyłoby ograniczenia prawne na inne. - To niesamowite, co te narzędzia mogą zrobić, nawet w ich względnych powijakach - powiedział Alan Davidson, który kieruje National Telecommunication and Information Administration, agencją Departamentu Handlu, która wysłała prośbę o RFC.

Dokumenty RFC, które zostaną zaakceptowane w ciągu najbliższych 60 dni, zostaną wykorzystane do sformułowania zaleceń dla amerykańskich ustawodawców, jak powinni podejść do sztucznej inteligencji - powiedział Davidson dziennikowi „WSJ”.

Czytaj więcej

Sztuczna inteligencja musi być komunistyczna. Tak chcą Chiny

ChatGPT, chatbot firmy Microsoft Corp. - wspierany start-up OpenAI to jeden z kilku popularnych nowych narzędzi sztucznej inteligencji, które mogą szybko generować teksty pisane, obrazy, filmy i nie tylko. Przedstawiciele branży i rządu wyrazili zaniepokojenie szeregiem potencjalnych szkód związanych ze sztuczną inteligencją, w tym wykorzystywaniem technologii do popełniania przestępstw lub rozpowszechniania kłamstw. Koncern Microsoft jako pierwszy poinformował, że popiera działania administracji, by poddać analizie rozwój sztucznej inteligencji.

Elon Musk i grupa naukowców niedawno wezwali do wprowadzenia sześciomiesięcznego moratorium na rozwój systemów potężniejszych niż GPT-4, wersji chatbota OpenAI wydanej około miesiąc temu. Ostrzegali, że rozwijający się wyścig między OpenAI a konkurentami, takimi jak Google, odbywa się bez odpowiedniej kontroli potencjalnych zagrożeń.

„Uważamy, że potężne systemy sztucznej inteligencji powinny podlegać rygorystycznym ocenom bezpieczeństwa” – napisał OpenAI w poście na oficjalnym blogu. „Potrzebne są regulacje, aby zapewnić przyjęcie takich praktyk, a my aktywnie współpracujemy z rządami nad najlepszą możliwą formą, jaką miałyby przyjąć takie regulacje” - dodano.

Natomiast Eric Schmidt, były dyrektor generalny Google, który przewodniczył kongresowej komisji ds. wpływu sztucznej inteligencji na bezpieczeństwo narodowe, twierdzi, że decydenci polityczni powinni uważać, aby nie stępić technologicznej przewagi Ameryki, jednocześnie wspierając rozwój i innowacje, aby były zgodne z wartościami demokratycznymi. Schmidt powiedział w Kongresie, że AI nie jest tym co przedstawiają filmy sci-fi takie jak „Terminator” a sztuczna inteligencja nie jest zagrożeniem dla ludzkości, ponieważ firmy technologiczne niczego takiego nie tworzą.

Prezydent Joe Biden, zapytany po spotkaniu z prezydencka radą naukową czy ta technologia jest niebezpieczna, powiedział: „To się jeszcze okaże. Może tak być”. W grupie doradczej znaleźli się przedstawiciele firm Microsoft i Google. Oni i inne firmy wypuszczające systemy AI powiedzieli, że stale aktualizują zasady bezpieczeństwa, na przykład programując chatboty tak, aby nie odpowiadały na niektóre pytania.

Waszyngton sprawdza, czy należy kontrolować narzędzia sztucznej inteligencji w związku z rosnącymi obawami, że technologia ta może zostać wykorzystana do dyskryminacji lub rozpowszechniania szkodliwych informacji – pisze „Wall Street Journal”. Departament Handlu wystosował formalną prośbę o komentarze i wioski (RFC - Request for Comments) na temat tak zwanych środków rozliczalności, w tym tego, czy potencjalnie ryzykowne nowe modele sztucznej inteligencji powinny przejść proces certyfikacji przed ich wydaniem.

Ogromna popularność ChatGPT - dotarł do 100 milionów użytkowników i znacznie szybciej niż jakakolwiek wcześniejsza aplikacja konsumencka - skłonił organy regulacyjne na całym świecie do rozważenia ograniczeń dla tej szybko rozwijającej się technologii.

Pozostało 82% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Globalne Interesy
Ludzie wyginą jak dinozaury? Powstaje system obrony przed kosmicznym zagrożeniem
Globalne Interesy
CrowdStrike zablokował systemy Microsoft. Potężna awaria na całym świecie
Globalne Interesy
OpenAI rozpoczyna wojnę, wprowadzając nowy model ChatGPT. Jest tańszy i szybszy
Globalne Interesy
Elon Musk zabiera swoje firmy z Kalifornii. Podał szokujący powód
Materiał Promocyjny
Mity i fakty – Samochody elektryczne nie są ekologiczne
Globalne Interesy
Rosyjski gigant ucieka z USA. Niedostępne oprogramowanie i zwolnienia pracowników