Cel na najbliższe 12 miesięcy spółka ma bardzo ambitny – chce stworzyć sztuczną inteligencję (AI) bardziej dostosowaną do nieprzewidywalnego, ciągle zmieniającego się świata fizycznego. Aby tego dokonać, zespół AGICortex wykorzysta autorskie algorytmy uczenia maszynowego umożliwiające automatyczne przyswajanie nowych informacji bez konieczności odrębnych sesji treningu (tzw. uczenie w trybie ciągłym), a także analizę ruchu, głębi oraz dodatkowych informacji kontekstowych – analogicznie do tego, jak działa biologiczny mózg. Ma to być część narzędzi programistycznych, jakie startup z Poznania zaoferuje klientom.
Czas na generalną sztuczną inteligencję
– Stopniowo uczymy maszyny modelu świata, otaczającej rzeczywistości, który może potem zostać wykorzystany w wielu różnych zastosowaniach, a pozyskane dane mogą być współdzielone z innymi urządzeniami. Przełomowe w naszej technologii jest to, że możemy uczyć AI nowych informacji, także nie wiedząc, do czego zostaną one później wykorzystane – mówi Maciej Wolski, prezes i współzałożyciel AGICortex. – Nasze modele są w stanie zrobić wiele rzeczy naraz. Mogą być bardzo duże, ale tak jak ludzki mózg wykorzystują tylko niewielki procent tego, co jest im akurat potrzebne. To istotny krok w kierunku generalnej sztucznej inteligencji mającej dorównać człowiekowi – kontynuuje.
Czytaj więcej
Automatyczny kucharz w restauracji to już nieodległa przyszłość. Jeden z lokali we Wrocławiu zatrudnił właśnie roboty do pracy w kuchni. Roboty w gastronomii to lek na brak kadr.
Spółka tworzy od podstaw AI, a jej rozwiązania mogą być finalnie „zaszyte” w dowolnym urządzeniu: robocie, dronie czy w systemach monitorujących i analitycznych. Spółka już przyciąga uwagę firm, które poszukują takich rozwiązań.
– W klasycznym ujęciu wdrożenie np. robotów w 100 oddziałach szpitalnych zajęłoby kilkadziesiąt miesięcy, bo każda przestrzeń jest inna – zatem każda lokalizacja musiałby zostać potraktowana jako osobny projekt. Natomiast nasza AI zainstalowana w robotach sprawia, iż wiedzą one, że np. muszą rozpoznać określone typy obiektów, np. łóżka pacjentów, szafki czy drzwi, a robot sam doucza się różnic, czyli wszelkich atrybutów wizualnych czy dźwiękowych – wyjaśnia Wolski.