로드 중...
현재 시스템이 작동되지 않습니다. 나중에 다시 시도해 주세요.
연간 인용횟수
중복된 서지정보
다음 학술 문서는 학술검색에서 병합되어 있습니다.
총 인용
횟수가 첫 번째 학술 문서에 대해서만 계산됩니다.
병합된 서지정보
이 '인용' 횟수는 학술검색의 다음 학술 문서에 대한 인용문을 포함합니다.
*
표시된 인용문은 프로필에 있는 학술 문서와 다를 수 있습니다.
공동 저자 추가
공동 저자
팔로우
이 저자의 새 학술자료
이 저자를 인용한 새 학술자료
이 저자의 연구와 관련된 새 학술자료
업데이트를 받을 이메일 주소
완료
내 프로필
내 서재
통계
알리미
설정
로그인
로그인
내 프로필 만들기
인용
전체
2019년 이후
서지정보
48
48
h-index
4
4
i10-index
3
3
0
22
11
2021
2022
2023
2024
4
10
22
12
공동 저자
Sungwon Lyu
scatterlab.co.kr의 이메일 확인됨
Bokyung Son
NAVER
navercorp.com의 이메일 확인됨
Minho Ryu
LLM Researcher at kakaobrain
kakaobrain.com의 이메일 확인됨
Taekyoon Choi
Naver
navercorp.com의 이메일 확인됨
Sungho Park
Wrtn Technologies
wrtn.io의 이메일 확인됨
Wonjun Jang
Kakao corp.
kakaocorp.com의 이메일 확인됨
Won Ik Cho
Seoul National University
snu.ac.kr의 이메일 확인됨
팔로우
Kichang Yang
Common Computer Corp.
soongsil.ac.kr의 이메일 확인됨 -
홈페이지
Machine Learning
NLP
학술자료
인용
공동 저자
제목
정렬
서지정보순 정렬
연도순 정렬
제목순 정렬
인용
인용
연도
Revisiting modularized multilingual NMT to meet industrial demands
S Lyu, B Son, K Yang, J Bae
Proceedings of the 2020 Conference on Empirical Methods in Natural Language …
, 2020
17
2020
A Technical Report for Polyglot-Ko: Open-Source Large-Scale Korean Language Models
H Ko, K Yang, M Ryu, T Choi, S Yang, S Park, K Park
arXiv preprint arXiv:2306.02254
, 2023
13
2023
APEACH: Attacking Pejorative Expressions with Analysis on Crowd-Generated Hate Speech Evaluation Datasets
K Yang, W Jang, WI Cho
Findings of the Association for Computational Linguistics: EMNLP 2022
, 2022
10
2022
Transformer-based Korean pretrained language models: A survey on three years of progress
K Yang
arXiv preprint arXiv:2112.03014
, 2021
8
2021
현재 시스템이 작동되지 않습니다. 나중에 다시 시도해 주세요.
학술자료 1–4
더보기
개인정보처리방침
약관
도움말
학술검색 정보
검색 도움말