Sztuczna inteligencja do odpolitycznienia. Google ogranicza algorytmy na wybory

Boty nie będą odpowiadać na pytania dotyczące kampanii wyborczych i polityki. Ma to uchronić tę technologię i same koncerny stojące za nią przed kontrowersjami i oskarżeniami o wpływanie na wyborców.

Publikacja: 13.03.2024 19:35

Jakie są szanse wyborcze Donalda Trumpa? Nie licz, że bot odpowie

Jakie są szanse wyborcze Donalda Trumpa? Nie licz, że bot odpowie

Foto: Elijah Nouvelage / AFP

Pierwszy ruch w ograniczeniu odpowiedzi na pytania z politycznym podtekstem wykonał właśnie Google, ale wiele wskazuje na to, że w jego ślady mogą pójść kolejne firmy rozwijające AI. Decyzje te mają związek z sezonem wyborczym – w br. w wielu krajach na świecie odbędą się głosowania. W Polsce wybierać będziemy samorządowców i europarlamentarzystów, Amerykanie, Finowie, Słowacy, Chorwaci i Rumuni – prezydenta. Wybory odbędą się też w Wielkiej Brytanii i Republice Południowej Afryki. W sumie, jak wylicza serwis Euroactiv, proces demokratyczny zaplanowano na br. w 70 krajach.

Gemini unika polityki

Google już oficjalnie potwierdził, że ogranicza rodzaje pytań związanych z wyborami, jakie użytkownicy mogą zadawać chatbotowi Gemini. W poście na blogu gigant poinformował, że taki wymóg wprowadziły Indie, gdzie w kwietniu dojdzie do wyborów parlamentarnych. Koncern nie ukrywa, że chce uniknąć dalszych kontrowersji wokół technologii AI.

Czytaj więcej

Europarlament przyjął standardy dla AI. Mają chronić obywateli i jej nie zabić

Gemini to odpowiednik ChatGPT – może odpowiadać na pytania w formie tekstowej, a także generować obrazy. Rzecznik Google powiedział BBC, że w ramach przygotowań do wielu procesów wyborczych na świecie ograniczany będzie rodzaj zapytań, na które Gemini będzie udzielać odpowiedzi. Testy wykazują, że bot faktycznie unika kontrowersji, na pytania o charakterze wyborczym za każdym razem odpowiada: „Wciąż uczę się, jak odpowiedzieć na to pytanie. W międzyczasie wypróbuj wyszukiwarki Google”.

Regulowanie sztucznej inteligencji

Rozwój generatywnej sztucznej inteligencji wzbudził obawy związane z dezinformacją i skłonił rządy na całym świecie do podjęcia działań w celu uregulowania tej technologii. UE właśnie przyjęła odpowiednie rozporządzenie (AI Act), nad przepisami pracują także Waszyngton i Pekin.

Generowanie fałszywych treści to dziś wyzwanie dla technologii AI. Google w lutym zaliczył wpadkę, gdy okazało się, że jego bot tworzył obrazy ojców założycieli Stanów Zjednoczonych czy niemieckich żołnierzy z czasów II wojny światowej, prezentując osoby czarnoskóre czy kobietę Azjatkę. Stało się tak, bo firma oskarżana była o to, że wyniki generowane przez modele AI często były dyskryminujące i niesprawiedliwe wobec jednostki lub grupy ze względu na płeć czy pochodzenie etniczne. Koncern postanowił więc rozwiązać problemy wielu generatywnych modeli AI związane z uprzedzeniami, ale ewidentnie przeszarżował.

Pierwszy ruch w ograniczeniu odpowiedzi na pytania z politycznym podtekstem wykonał właśnie Google, ale wiele wskazuje na to, że w jego ślady mogą pójść kolejne firmy rozwijające AI. Decyzje te mają związek z sezonem wyborczym – w br. w wielu krajach na świecie odbędą się głosowania. W Polsce wybierać będziemy samorządowców i europarlamentarzystów, Amerykanie, Finowie, Słowacy, Chorwaci i Rumuni – prezydenta. Wybory odbędą się też w Wielkiej Brytanii i Republice Południowej Afryki. W sumie, jak wylicza serwis Euroactiv, proces demokratyczny zaplanowano na br. w 70 krajach.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Globalne Interesy
Ustawa antytiktokowa stała się ciałem. Chiński koncern wzywa Amerykanów
Globalne Interesy
Niemiecki robot ma być jak dobry chrześcijanin. Zaskakujące przepisy za Odrą
Globalne Interesy
Mark Zuckerberg rzuca wyzwanie ChatGPT. „Wstrząśnie światem sztucznej inteligencji”
Globalne Interesy
Amerykański koncern zwalnia pracowników. Protestowali przeciw kontraktowi z Izraelem
Globalne Interesy
Zagadkowa inwestycja Microsoftu w arabską sztuczną inteligencję. Porzucone Chiny