OpenAI przygotowuje się do uruchomienia GPT-5, następcy swojego rewolucyjnego systemu GPT-4. Nowy ChatGPT, mimo pewnych opóźnień, miałby zadebiutować jeszcze w tym miesiącu. Nieoficjalnie mówi się, że nastąpi to nawet w pierwszej połowie sierpnia. W lutym szef OpenAI zapowiadał, że GPT-5 będzie dostępny bez limitów jako podstawowy model w ChatGPT. Nie wiadomo jeszcze, jakie będą jego możliwości, choć ma przewyższać istniejące modele. ChatGPT, jako dominujący gracz na rynku chatbotów, ma szansę umocnić pozycję lidera. Model, mający ponad 100 mln użytkowników, ma jednak mocną konkurencję. Jeszcze przed premierą GPT-5 swoje rozwiązanie pokazał Anthropic, firma, która już kontroluje 32 proc. rynku generatywnych systemów AI dla przedsiębiorstw (jak podaje Menlo Ventures w przypadku OpenAI to „tylko” 25 proc.).
Czytaj więcej
OpenAI przez przypadek ujawniło szczegóły dotyczące swojego nowego modelu sztucznej inteligencji – GPT-5. Przeciek z GitHuba zdradza, że nowa wersj...
Co potrafią nowe modele AI od Alibaby i Anthropic?
Anthropic wydało właśnie wersję Opus 4.1 swojego popularnego modelu Claude. Jak donosi serwis TechCrunch, wykazuje on poprawioną wydajność w kodowaniu, rozumowaniu i tzw. zadaniach agentowych. A przy tym dostęp do systemu będzie w tej samej cenie co do poprzednika.
Czytaj więcej
Dyrektor zarządzający Mety, właściciela Facebooka i Instagrama, przedstawił wizję „osobistej superinteligencji” – idei, że ludzie powinni móc korzy...
Anthropic podał, że Claude Opus 4.1 osiąga 74,5 proc. dokładności w SWE-bench Verified (benchmark inżynierii oprogramowania), gdy Opus 4 miał poziom 72,5 proc. GitHub potwierdził, że Opus 4.1 zapewnia „szczególnie znaczące wzrosty wydajności” w niektórych elementach, choć w praktyce kompleksowy wzrost wydajności w poszczególnych metrykach jest jednak dość nieznaczny. I tak np. model poprawił się do 80,9 proc. w tzw. rozumowaniu na poziomie absolwenckim (z 79,6 proc. według GPQA Diamond) i osiągnął 78 proc. w konkursach matematycznych AIME 2025 (z 75,5 proc.). Choć koszt korzystania z systemu się nie zmienił (model zachowuje cennik 15 dol. za milion tokenów wejściowych i 75 dol. za milion tokenów wyjściowych), to jest i tak jednym z najdroższych dostępnych modeli.
Czytaj więcej
Sam Altman, dyrektor generalny wiodącej firmy w dziedzinie AI, nakreślił przyszłość, w której sztuczna inteligencja decyduje o wszystkim – od obsłu...
Wyzwanie ChatGPT rzucił też chiński koncern Alibaba, który uruchomił w tym tygodniu Qwen-Image, open-sourceowy model AI. System o otwartym kodzie źródłowym z 20 miliardami parametrów, ustanawia nowe standardy dla renderowania tekstu. Dotąd przy generowaniu obrazów AI nie radziła sobie z pisownią słów, zwłaszcza treści wielojęzycznych. Testy porównawcze już wykazały, iż chiński model przewyższa GPT-Image 1 oraz FLUX.1. Eksperci zwracają uwagę, że to już coś więcej niż tylko poprawne umieszczanie znaków i liter w tworzonych grafikach. Chodzić ma bowiem o głębokie rozumienie języka wizualnego.
Qwen-Image jest obecnie dostępny za pośrednictwem wielu platform, w tym Hugging Face, GitHub, ModelScope oraz bezpośrednio przez Qwen Chat.
Co potrafi nowy Google Genie?
Prawdziwy przełom serwuje jednak Google. Firma ogłosiła Genie 3, nowy model AI, który może generować interaktywne środowiska 3D w czasie rzeczywistym w rozdzielczości 720p i z prędkością 24 klatek na sekundę. System tworzy dynamiczne wirtualne światy na podstawie prostych poleceń tekstowych i może utrzymywać spójność fizyczną przez kilka minut. Google DeepMind określa to jako „pierwszy interaktywny model świata ogólnego przeznaczenia działający w czasie rzeczywistym”. Eksperci, którzy mieli okazję już próbować możliwości narzędzia mówią o „szokujących efektach”.
Czytaj więcej
Koncern z Cupertino zmienia strategię w obszarze AI. Apple Answers ma być sposobem nie tylko na uniezależnienie się od wyszukiwarki Google, ale tak...
System oparty na modelu Google Genie 2 oferuje znaczące ulepszenia (wcześniejszy model mógł utrzymywać interakcje tylko przez 10 do 20 sekund). Shlomi Fruchter, dyrektor ds. badań w DeepMind, podkreśla, że Genie 3 „wykracza poza wąskie modele światów, które istniały wcześniej”. Generowany obraz pozwala np. sterować postacią na ekranie i na żywo generować obraz, w zależności, w którą się ona stronę obróci. Co więcej, na bieżąco można podawać kolejne prompty z poleceniami, co ma się pojawić na ekranie. Przypomina to nieco interaktywny film czy grę wideo. Tę technikę DeepMind nazywa podejściem auto-regresyjnym – chodzi o generowanie każdej klatki obrazu poprzez uwzględnienie do minuty wcześniej wygenerowanej zawartości. Tworzy to spójną całość wizualną. Specjaliści podkreślają, że w Genie 3 AI zyskuje „pamięć świata”, który generuje.