Reklama

Boty „pokochały” język polski? Wygrał w amerykańskich badaniach

Język polski uznano za najlepszy do promptowania – jest najbardziej precyzyjny pod względem wydawania poleceń sztucznej inteligencji – wynika z najnowszych analiz. Ale AI ma z nim pewien problem.

Publikacja: 24.10.2025 13:34

Nasza rodzima mowa wyprzedziła angielski – język, który jest wiodącym w kontekście szkolenia AI. W a

Nasza rodzima mowa wyprzedziła angielski – język, który jest wiodącym w kontekście szkolenia AI. W amerykańskim zestawieniu zajął dopiero szóstą pozycję

Foto: Bloomberg

Z tego artykułu się dowiesz:

  • Dlaczego badania naukowe wykazały lepszą skuteczność języka polskiego w porównaniu do angielskiego?
  • W jaki sposób długość kontekstu wpływa na wydajność różnych języków w dużych modelach językowych?
  • Jakie różnice w wydajności pojawiają się między językami "nisko- i wysokozasobowymi"?

Dotychczas język polski powszechnie uznawano za jeden z najtrudniejszych do nauki – na świecie za bardziej skomplikowane pod względem m.in. gramatyki i ortografii uznaje się np. islandzki, fiński, baskijski, chiński czy nawaho. Jak podaje organizacja Ethnologue, w sumie na Ziemi używa się ponad 7 tys. języków, ale to nasz, w różnego rodzaju rankingach, plasuje się w top 10 najtrudniejszych. Jak się jednak okazuje, kłopot z tym mają wyłącznie ludzie.

Angielski nie jest wydajny

Naukowcy z University of Maryland oraz Microsoftu przeprowadzili test dużych modeli językowych (LLM), w którym sprawdzili, jak boty radzą sobie z poszczególnymi językami naturalnymi. Pod lupę wzięli 26 języków. Do testów zaangażowano modele OpenAI o3-mini-high, Google Gemini 1.5 Flash, Qwen2.5 (7B i 72B), Llama 3.1 (8B), Llama 3.3 (70B) i DeepSeek-R1. Pisali w nich zapytania (tzw. prompty), nie krótkie i zdawkowe, lecz wyjątkowo obszerne, kontekstowe (liczące nawet ponad 100 tys. tokenów). Na bazie wyników tego eksperymentu (zrozumienia zapytania, jakości odpowiedzi) opublikowali benchmark OneRuler. Efekt? Niewątpliwie duże zaskoczenie. Język polski zajął pierwsze miejsce. Nasza rodzima mowa wyprzedziła angielski – język, który naturalnie jest wiodącym w kontekście szkolenia AI, w tym zestawieniu zajął dopiero szóstą pozycję.

„Eksperymenty z modelami językowymi ujawniają powiększającą się lukę w wydajności między językami nisko- i wysokozasobowymi wraz ze wzrostem długości kontekstu z 8 tys. do 128 tys. tokenów. Co zaskakujące, angielski nie jest językiem o najwyższej wydajności w zadaniach o długim kontekście, a językiem czołowym okazał się polski” – piszą w opublikowanym niedawno raporcie równie zaskoczeni naukowcy.

Reklama
Reklama

Interesujący, choć już nie tak zaskakujący, okazał się również inny wniosek z badania – otóż wydajność modeli w językach tzw. wysokozasobowych (np. europejskich) jest wyższa niż w „niskich” (jak np. swahili czy sesotho). Co istotne, ta różnica wydajności powiększa się wraz ze wzrostem długości kontekstu – z 11 proc. przy 8 tys. tokenów do aż 34 proc. przy 128 tys. tokenów. To istotne, bo rozumienie języka w długim kontekście ma zasadnicze znaczenie dla rzeczywistych zastosowań dużych modeli językowych, takich jak streszczanie i odpowiadanie na zaawansowane pytania.

Mało zasobów, ale duża skuteczność

W badaniach modele oceniano na podstawie siedmiu syntetycznych zadań podzielonych na dwie kategorie: wyszukiwanie (zadania typu „igła w stogu siana”, w których poszukuje się informacji, która nie istnieje w tekście) oraz agregacja (ekstrakcja najczęściej występujących słów z długiej listy). Testy przeprowadzono dla czterech długości kontekstu: 8, 32, 64 oraz 128 tys. tokenów. Wnioski? Polski to najlepszy język do promptowania. Brzmi niewiarygodnie, tym bardziej, że AI ma z naszym językiem pewien kluczowy problem – chodzi o fakt „stosunkowo niewielkiej ilości zasobów” w naszym języku, które służą do trenowania LLM-ów. Mimo to badacze nie mają wątpliwości: boty, pracując w tym języku popełniają mniej błędów, potrafią trafniej odpowiedzieć i lepiej przeanalizować duże zbiory dokumentów. Opublikowane przez zespół naukowców (Yekyung Kim, Jenna Russell, Marzena Karpińska, Mohit Iyyer) badanie „One ruler to measure them all: Benchmarking multilingual long-context language models” pokazuje wprost: polski wypada najlepiej w zadaniach, gdzie wpisywana treść prompta jest bardzo długa, bo liczy od 64 do 128 tys. tokenów.

Czytaj więcej

Można stracić kontrolę nad sztuczną inteligencją. Eksperci alarmują po ataku

Wedle analiz osiągnął on średnio 88 proc. skuteczności. W przypadku jęz. angielskiego było to niecałe 84 proc. Co ciekawe, mimo że modele LLM często trenowane są na ogromnych ilościach danych chińskich, język ten wypadł bardzo słabo – zajął dopiero czwarte miejsce od końca (średnia skuteczność to 62 proc.).

Pełne zestawienie w rankingu znajduje się poniżej.

Skuteczność poszczególnych języków w promptowaniu:

  • polski 88%
  • francuski 87%
  • włoski 86%
  • hiszpański 85%
  • rosyjski 84%
  • angielski 83.9%
  • ukraiński 83.5%
  • portugalski 82%
  • niemiecki 81%
  • holenderski 80%
  • norweski 79%
  • szwedzki 78%
  • duński 77%
  • węgierski 76%
  • fiński 75%
  • czeski 73%
  • japoński 72%
  • wietnamski 71%
  • perski 70%
  • serbski 69%
  • koreański 66%
  • hindi 65%
  • chiński 62.1%
  • tamilski 61%
  • swahili 55%
  • sesotho 45%

Z tego artykułu się dowiesz:

  • Dlaczego badania naukowe wykazały lepszą skuteczność języka polskiego w porównaniu do angielskiego?
  • W jaki sposób długość kontekstu wpływa na wydajność różnych języków w dużych modelach językowych?
  • Jakie różnice w wydajności pojawiają się między językami "nisko- i wysokozasobowymi"?
Pozostało jeszcze 93% artykułu

Dotychczas język polski powszechnie uznawano za jeden z najtrudniejszych do nauki – na świecie za bardziej skomplikowane pod względem m.in. gramatyki i ortografii uznaje się np. islandzki, fiński, baskijski, chiński czy nawaho. Jak podaje organizacja Ethnologue, w sumie na Ziemi używa się ponad 7 tys. języków, ale to nasz, w różnego rodzaju rankingach, plasuje się w top 10 najtrudniejszych. Jak się jednak okazuje, kłopot z tym mają wyłącznie ludzie.

Pozostało jeszcze 90% artykułu
/
artykułów
Czytaj dalej. Subskrybuj
Reklama
Technologie
Czy AI odbierze nam pracę? Współzałożyciel OpenAI ma zaskakującą odpowiedź
Materiał Promocyjny
W poszukiwaniu nowego pokolenia prezesów: dlaczego warto dbać o MŚP
Technologie
Przełom w bateriach. Dzięki fluorowi elektryki pojadą 1500 km na jednym ładowaniu
Technologie
Harry i Meghan pod rękę z naukowcami. Boją się superinteligencji
Technologie
Szczepionka na raka może już istnieć. To szczepionka przeciw... COVID-19
Materiał Promocyjny
Stacje ładowania dla ciężarówek pilnie potrzebne
Technologie
Dzięki AI uczą się tylko dwie godziny dziennie. Rewolucyjne szkoły odmienią edukację?
Materiał Promocyjny
Prawnik 4.0 – AI, LegalTech, dane w codziennej praktyce
Reklama
Reklama