Czy da się zbudować model językowy, który rozumie polski „po ludzku”, a nie „po tokenach”? W rozmowie w programie „didaskalia” Remigiusz Kinas opowiada o Bieliku — polskim LLM — i pokazuje, gdzie narzędzia pokroju ChatGPT mają ograniczenia, zwłaszcza w realiach danych, języka i niezależności technologicznej.
Polski Bielik obnaża ograniczenia ChatGPT
Na te i więcej pytań odpowie Remigiusz Kinas, ekspert w dziedzinie uczenia maszynowego, jeden z twórców polskiego modelu językowego (LLM) o nazwie Bielik. Zapraszamy do oglądania kolejnego odcinka programu „didaskalia” Patrycjusza Wyżgi.



