Дистилляция знаний большой языковой модели в компактную модель для генерации персонализированных тренировочных программ для пилотов и бортпроводников гражданской авиации

Журнал: Труды МАИ
Тэги (англ.):  knowledge distillation, compact language models, fine-tuning, LoRA, personalization, civil aviation
Авторы:  Татаренко / Лукин
Выпуск № (Вверх):  146
Файл:  Скачать