로드 중...
현재 시스템이 작동되지 않습니다. 나중에 다시 시도해 주세요.
연간 인용횟수
중복된 서지정보
다음 학술 문서는 학술검색에서 병합되어 있습니다.
총 인용
횟수가 첫 번째 학술 문서에 대해서만 계산됩니다.
병합된 서지정보
이 '인용' 횟수는 학술검색의 다음 학술 문서에 대한 인용문을 포함합니다.
*
표시된 인용문은 프로필에 있는 학술 문서와 다를 수 있습니다.
공동 저자 추가
공동 저자
팔로우
이 저자의 새 학술자료
이 저자를 인용한 새 학술자료
이 저자의 연구와 관련된 새 학술자료
업데이트를 받을 이메일 주소
완료
내 프로필
내 서재
통계
알리미
설정
로그인
로그인
내 프로필 만들기
인용
전체
2019년 이후
서지정보
93
93
h-index
2
2
i10-index
2
2
0
60
30
2022
2023
2024
10
53
29
공개 액세스
모두 보기
모두 보기
자료 1개
자료 0개
공개
비공개
재정 지원 요구사항 기준
공동 저자
Kangwook Lee
University of Wisconsin-Madison
wisc.edu의 이메일 확인됨
Ruisu Zhang
University of Wisconsin-Madison
wisc.edu의 이메일 확인됨
Ziqian Lin
Ph.D. student of UW-Madison
wisc.edu의 이메일 확인됨
Shashank Rajput
Research Scientist, MosaicML (Databricks)
databricks.com의 이메일 확인됨
Tuan Dinh
University of California, San Francisco
ucsf.edu의 이메일 확인됨
Jy-yong Sohn
Yonsei University
yonsei.ac.kr의 이메일 확인됨
Dimitris Papailiopoulos
Associate Professor, University of Wisconsin-Madison
papail.io의 이메일 확인됨
Yuchen Zeng
University of Wisconsin-Madison
wisc.edu의 이메일 확인됨
팔로우
Michael Gira
University of Wisconsin–Madison
wisc.edu의 이메일 확인됨 -
홈페이지
Artificial Intelligence
Machine Learning
Deep learning
NLP
Diffusion Models
학술자료
인용
공개 액세스
공동 저자
제목
정렬
서지정보순 정렬
연도순 정렬
제목순 정렬
인용
인용
연도
LIFT: Language-Interfaced Fine-Tuning for Non-language Machine Learning Tasks
T Dinh, Y Zeng, R Zhang, Z Lin, M Gira, S Rajput, J Sohn, ...
Advances in Neural Information Processing Systems 35, 11763-11784
, 2022
58
2022
Debiasing pre-trained language models via efficient fine-tuning
M Gira, R Zhang, K Lee
Proceedings of the Second Workshop on Language Technology for Equality …
, 2022
34
2022
Super-Resolution Emulation of Large Cosmological Fields with a 3D Conditional Diffusion Model
A Rouhiainen, M Gira, M Münchmeyer, K Lee, G Shiu
arXiv preprint arXiv:2311.05217
, 2023
1
2023
현재 시스템이 작동되지 않습니다. 나중에 다시 시도해 주세요.
학술자료 1–3
더보기
개인정보처리방침
약관
도움말
학술검색 정보
검색 도움말