팔로우
Seungjoon Park
Seungjoon Park
Twelve Labs
twelvelabs.io의 이메일 확인됨
제목
인용
인용
연도
Revisiting Intermediate Layer Distillation for Compressing Language Models: An Overfitting Perspective
J Ko, S Park, M Jeong, S Hong, E Ahn, DS Chang, SY Yun
arXiv preprint arXiv:2302.01530, 2023
32023
NASH: A Simple Unified Framework of Structured Pruning for Accelerating Encoder-Decoder Language Models
J Ko, S Park, Y Kim, S Ahn, DS Chang, E Ahn, SY Yun
arXiv preprint arXiv:2310.10054, 2023
12023
현재 시스템이 작동되지 않습니다. 나중에 다시 시도해 주세요.
학술자료 1–2