Reklama

Sztuczna inteligencja do odpolitycznienia. Google ogranicza algorytmy na wybory

Boty nie będą odpowiadać na pytania dotyczące kampanii wyborczych i polityki. Ma to uchronić tę technologię i same koncerny stojące za nią przed kontrowersjami i oskarżeniami o wpływanie na wyborców.

Publikacja: 13.03.2024 19:35

Jakie są szanse wyborcze Donalda Trumpa? Nie licz, że bot odpowie

Jakie są szanse wyborcze Donalda Trumpa? Nie licz, że bot odpowie

Foto: Elijah Nouvelage / AFP

Pierwszy ruch w ograniczeniu odpowiedzi na pytania z politycznym podtekstem wykonał właśnie Google, ale wiele wskazuje na to, że w jego ślady mogą pójść kolejne firmy rozwijające AI. Decyzje te mają związek z sezonem wyborczym – w br. w wielu krajach na świecie odbędą się głosowania. W Polsce wybierać będziemy samorządowców i europarlamentarzystów, Amerykanie, Finowie, Słowacy, Chorwaci i Rumuni – prezydenta. Wybory odbędą się też w Wielkiej Brytanii i Republice Południowej Afryki. W sumie, jak wylicza serwis Euroactiv, proces demokratyczny zaplanowano na br. w 70 krajach.

Gemini unika polityki

Google już oficjalnie potwierdził, że ogranicza rodzaje pytań związanych z wyborami, jakie użytkownicy mogą zadawać chatbotowi Gemini. W poście na blogu gigant poinformował, że taki wymóg wprowadziły Indie, gdzie w kwietniu dojdzie do wyborów parlamentarnych. Koncern nie ukrywa, że chce uniknąć dalszych kontrowersji wokół technologii AI.

Czytaj więcej

Europarlament przyjął standardy dla AI. Mają chronić obywateli i jej nie zabić

Gemini to odpowiednik ChatGPT – może odpowiadać na pytania w formie tekstowej, a także generować obrazy. Rzecznik Google powiedział BBC, że w ramach przygotowań do wielu procesów wyborczych na świecie ograniczany będzie rodzaj zapytań, na które Gemini będzie udzielać odpowiedzi. Testy wykazują, że bot faktycznie unika kontrowersji, na pytania o charakterze wyborczym za każdym razem odpowiada: „Wciąż uczę się, jak odpowiedzieć na to pytanie. W międzyczasie wypróbuj wyszukiwarki Google”.

Regulowanie sztucznej inteligencji

Rozwój generatywnej sztucznej inteligencji wzbudził obawy związane z dezinformacją i skłonił rządy na całym świecie do podjęcia działań w celu uregulowania tej technologii. UE właśnie przyjęła odpowiednie rozporządzenie (AI Act), nad przepisami pracują także Waszyngton i Pekin.

Reklama
Reklama

Generowanie fałszywych treści to dziś wyzwanie dla technologii AI. Google w lutym zaliczył wpadkę, gdy okazało się, że jego bot tworzył obrazy ojców założycieli Stanów Zjednoczonych czy niemieckich żołnierzy z czasów II wojny światowej, prezentując osoby czarnoskóre czy kobietę Azjatkę. Stało się tak, bo firma oskarżana była o to, że wyniki generowane przez modele AI często były dyskryminujące i niesprawiedliwe wobec jednostki lub grupy ze względu na płeć czy pochodzenie etniczne. Koncern postanowił więc rozwiązać problemy wielu generatywnych modeli AI związane z uprzedzeniami, ale ewidentnie przeszarżował.

Globalne Interesy
Kontrowersyjna decyzja Trumpa. Amerykańskie chipy popłyną do Chin
Materiał Promocyjny
Kameralna. Niska zabudowa, wysoki standard myślenia o przestrzeni
Globalne Interesy
Ubezpieczyciele obawiają się katastrofy. AI wywróci polisy do góry nogami
Globalne Interesy
Rewolucja w Mecie. Właściciel Facebooka drastycznie tnie kluczowy projekt
Globalne Interesy
W 2026 roku wzrosną ceny smartfonów i komputerów. Niespodziewany powód
Materiał Promocyjny
Startupy poszukiwane — dołącz do Platform startowych w Polsce Wschodniej i zyskaj nowe możliwości!
Globalne Interesy
„Woke Stasi commissars”. Musk chce likwidacji UE po karze dla serwisu X, wojna na tweety
Materiał Promocyjny
Nadciąga wielka zmiana dla branży tekstylnej. Dla rynku to też szansa
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama