Asa Cooper Stickland
Asa Cooper Stickland
確認したメール アドレス: ed.ac.uk - ホームページ
タイトル
引用先
引用先
BERT and PALs: Projected attention layers for efficient adaptation in multi-task learning
AC Stickland, I Murray
International Conference on Machine Learning, 5986-5995, 2019
732019
Deep Transformers with Latent Depth
X Li, AC Stickland, Y Tang, X Kong
arXiv preprint arXiv:2009.13102, 2020
62020
Diverse ensembles improve calibration
AC Stickland, I Murray
arXiv preprint arXiv:2007.04206, 2020
52020
Recipes for Adapting Pre-trained Monolingual and Multilingual Models to Machine Translation
AC Stickland, X Li, M Ghazvininejad
arXiv preprint arXiv:2004.14911, 2020
32020
BERT and PALs: Projected Attention Layers
AC Stickland, I Murray
現在システムで処理を実行できません。しばらくしてからもう一度お試しください。
論文 1–5