Polacy będą mieć własny ChatGPT. Nazywa się jak kura i lepiej zna język polski

Polscy naukowcy opracowali generatywne neuronowe modele językowe na podstawie danych w języku polskim. Zdaniem twórców, jest to pierwszy i najlepszy w swojej kategorii odpowiednik otwartych narzędzi takich jak ChatGPT. Podstawową zaletą wynalazku znad Wisły jest to, że rozumie język polski o wiele lepiej niż modele powstałe za granicą.
Generatywne modele językowe stają się coraz częściej narzędziem w rękach studentów, pracowników wielu sektorów, jak i użytkowników prywatnych

Generatywne modele językowe stają się coraz częściej narzędziem w rękach studentów, pracowników wielu sektorów, jak i użytkowników prywatnych

Twórcami modelu są naukowcy z Politechniki Gdańskiej oraz AI Lab z Ośrodka Przetwarzania Informacji (OPI) – Państwowego Instytutu Badawczego. Opracowany wynalazek został nazwany Qra i utworzono go na bazie prawie dwóch terabajtów danych tekstowych wyłącznie w języku polskim. Jak dotąd jeszcze żaden zespół badawczy nie stworzył podobnego modelu opartego na tak gigantycznym zasobie polskich słów.

Czytaj też: Nie potrzebujesz czekać na ulepszonego Asystenta od Google’a. Wkrótce zastąpi go ChatGPT

Model został opracowany w Centrum Kompetencji STOS, które jest jednym z najbardziej zaawansowanych centrów IT w Europie Środkowej. To tutaj chociażby znajduje się słynny superkomputer Kraken – czytamy w informacji Politechniki Gdańskiej. Dzięki niezwykle rozwiniętej technologii w CK STOS udało się wytrenować docelowy model w okresie zaledwie miesiąca.

Coraz częściej korzystamy z różnych narzędzi, aby ułatwić sobie pracę i naukę na komputerze. Modele podobne do takich jak ChatGPT powstają także w Polsce

Qra to pierwszy, zaawansowany model językowy oparty na danych wyłącznie w języku polskim

Warto dodać, że tak naprawdę Qra nie jest jednym modelem, a trzema. Nazywają się one kolejno Qra 1B, Qra 7B i Qra 13B. Dwa ostatnie wykazały najlepsze wyniki tzw. perplexity, czyli zdolności do modelowania języka w zakresie jego rozumienia, znajomości leksyki, gramatyki itd. Twórcy określają jakość Qra 7B i Qra 13B pod tym względem jako o wiele lepszą niż w popularnych i znanych modelach Llama i Mistral.

Czytaj też: Sztuczna inteligencja pomoże w szpitalach. Google testuje medycznego chatbota

Do czego na razie może służyć wynalazek z Gdańska? Póki co nie został on jeszcze dostosowany do funkcji podobnych, jakie ma ChatGPT. Niemniej nie musimy się martwić. W tym momencie jest to przede wszystkim model językowy, który potrafi samodzielnie generować poprawne językowo i stylistycznie zdania po polsku.

Czytaj też: Polska odpowiedź na ChatGPT. Co oferuje rozwiązanie SentiOne?

Zespół badawczy informuje, że planuje kontynuować prace nad Qrą, aby dostosować ją do bardziej zaawansowanych zadań jak klasyfikacja tekstów, pisanie ich streszczeń czy odpowiadanie na pytania. W tym momencie wszystkie trzy modele są upublicznione i dostępne w repozytorium na platformie huggingface. Każdy z nas może pobrać sobie model i dostosować do swojej dziedziny – przekazano w komunikacie PG.