📧 i@godweiyang.com · 📱 15221856016 · 🌐 godweiyang.com · 💻 GitHub · 📝 知乎
专业排名 1/105
专业排名 1/110
LightSeq2: Accelerated Training for Transformer-based Models on GPUs
SC 2022 CCF A
提出 LightSeq2 训练加速引擎,支持 BERT、GPT、ViT 等 Transformer 模型训练加速,相比 PyTorch 和 TensorFlow 最高加速 3.5 倍。
[论文链接]
LightSeq: A High Performance Inference Library for Transformers
NAACL 2021 Industry Track CCF C
提出 LightSeq 推理加速引擎,支持 BERT、GPT、ViT 等 Transformer 模型推理加速,相比 TensorFlow 最高加速 14 倍。
[论文链接]
A Span-based Linearization for Constituent Trees
ACL 2020 CCF A
提出基于 Span 的成分句法树线性化方法,将时间复杂度从 O(n³) 降低到 O(n log n)。
[论文链接]
| 奖项 | 年份 |
|---|---|
| 国家奖学金(研究生) | 2021 |
| 国家奖学金(本科生) | 2020 |
| 国家奖学金(本科生) | 2015 |
| ACM-ICPC 亚洲区域赛奖牌 | 2017 |
| ACM-ICPC 亚洲区域赛奖牌 | 2016 |
| 类别 | 内容 |
|---|---|
| 编程语言 | Python, C++, C, CUDA |
| 框架工具 | PyTorch, TensorFlow |
| 个人博客 | godweiyang.com |
| GitHub | github.com/godweiyang |
| 知乎 | 23,000+ 关注者 |
| 微信公众号 | 算法码上来(11,000+ 关注者) |