Z tego artykułu się dowiesz:
- Dlaczego badania naukowe wykazały lepszą skuteczność języka polskiego w porównaniu do angielskiego?
- W jaki sposób długość kontekstu wpływa na wydajność różnych języków w dużych modelach językowych?
- Jakie różnice w wydajności pojawiają się między językami "nisko- i wysokozasobowymi"?
Dotychczas język polski powszechnie uznawano za jeden z najtrudniejszych do nauki – na świecie za bardziej skomplikowane pod względem m.in. gramatyki i ortografii uznaje się np. islandzki, fiński, baskijski, chiński czy nawaho. Jak podaje organizacja Ethnologue, w sumie na Ziemi używa się ponad 7 tys. języków, ale to nasz, w różnego rodzaju rankingach, plasuje się w top 10 najtrudniejszych. Jak się jednak okazuje, kłopot z tym mają wyłącznie ludzie.
Angielski nie jest wydajny
Naukowcy z University of Maryland oraz Microsoftu przeprowadzili test dużych modeli językowych (LLM), w którym sprawdzili, jak boty radzą sobie z poszczególnymi językami naturalnymi. Pod lupę wzięli 26 języków. Do testów zaangażowano modele OpenAI o3-mini-high, Google Gemini 1.5 Flash, Qwen2.5 (7B i 72B), Llama 3.1 (8B), Llama 3.3 (70B) i DeepSeek-R1. Pisali w nich zapytania (tzw. prompty), nie krótkie i zdawkowe, lecz wyjątkowo obszerne, kontekstowe (liczące nawet ponad 100 tys. tokenów). Na bazie wyników tego eksperymentu (zrozumienia zapytania, jakości odpowiedzi) opublikowali benchmark OneRuler. Efekt? Niewątpliwie duże zaskoczenie. Język polski zajął pierwsze miejsce. Nasza rodzima mowa wyprzedziła angielski – język, który naturalnie jest wiodącym w kontekście szkolenia AI, w tym zestawieniu zajął dopiero szóstą pozycję.
„Eksperymenty z modelami językowymi ujawniają powiększającą się lukę w wydajności między językami nisko- i wysokozasobowymi wraz ze wzrostem długości kontekstu z 8 tys. do 128 tys. tokenów. Co zaskakujące, angielski nie jest językiem o najwyższej wydajności w zadaniach o długim kontekście, a językiem czołowym okazał się polski” – piszą w opublikowanym niedawno raporcie równie zaskoczeni naukowcy.