Polska wersja ChatGPT pojawi się w przyszłym roku
W pierwszej połowie przyszłego roku polscy naukowcy zaprezentują nowe rozwiązanie, związane ze sztuczną inteligencją. Model językowy PLLuM będzie uzupełniony materiałem w języku polskim oraz danymi związanymi z polskim kontekstem społeczno-kulturalnym, informuje Insider.
W tym celu powołano konsorcjum Polish Large Language Universal Model ze wsparciem ministerstwa cyfryzacji, do którego dołączyli: Politechnika Wrocławska (lider konsorcjum), Państwowy Instytut Badawczy NASK (PIB NASK), Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy (OPI PIB), Instytut Podstaw Informatyki PAN, Uniwersytet Łódzki oraz Instytut Slawistyki PAN.
PLLuM będzie wytrenowany na treściach polskojęzycznych.
– Podejrzewamy, że podczas trenowania ChatGPT nie widział za dużo języka polskiego w stosunku do innych języków. W związku z tym jest duża szansa, że przygotowując odpowiedzi, nadpisuje pewną wiedzę dotyczącą polskiej kultury, obyczajów i faktów danymi z innych języków. W trakcie testów zwróciliśmy uwagę, że dotyczy to zwłaszcza polskiej kultury i historii, popełnia też trochę błędów gramatycznych i stylistycznych – tłumaczy dr inż. Jan Kocoń z Katedry Sztucznej Inteligencji.
Naukowcy kupują sprzęt wart prawie 130 mln zł. Składa się na niego m.in. 300 kart graficznych H100, stosowanych do trenowania głębokich sieci neuronowych, ponad 30 petabajtów (jeden petabajt to tysiąc terabajtów) miejsca na dyskach twardych i petabajt pamięci RAM.
Korzystanie z PLLuM będzie bezpłatne.