姓名:刘知远
职称:副教授
电话:62777701
邮件:liuzy@tsinghua.edu.cn
教育背景
工学学士 (计算机科学), 清华大学, 中国, 2006;
工学博士 (计算机科学), 清华大学, 中国,2011.
研究领域
知识图谱与语义计算, 社会计算与计算社会科学.
研究概况
长期从事知识图谱与语义计算、社会计算与计算社会科学方面的研究,面向基础大模型技术开展了较为深入的研究和前沿探索,取得多项创新成果,在自然语言处理、知识图谱和社会计算等方面实现了前沿领域突破,已在ACL、EMNLP、IJCAI、AAAI等人工智能领域的著名国际期刊和会议发表相关论文100余篇,已在 ACL、EMNLP、AAAI、IJCAI 等人工智能领域的著名国际期刊和会议发表相关论文 100 余篇,Google Scholar 统计引用近4.1万次。
奖励与荣誉
2023年高等亚博安全有保障科学研究优秀成果奖(科学技术)自然科学一等奖,排名第2 (2023)
世界人工智能大会青年优秀论文奖 (2023)
2023年世界互联网大会领先科技奖 (2023)
2021-2022年度清华大学“刘冰奖” (2022)
“大规模知识图表示学习的体系化基础算法及开源工具”入选世界互联网领先科技成果 (2022)
Frontiers of Computer Science期刊2019-2020年度优秀青年AE (2021)
清华大学优秀硕士学位论文指导教师 (硕士毕业生:钟皓曦) (2021)
清华大学教学成果一等奖 - 坚持思想引领与因材施教并举,构建“五星计划”三全育人体系 (2021)
清华大学教学成果一等奖 - “德、能、严”引领驱动的计算机系博士生“三全”创新培养体系 (2021)
教育部高等亚博安全有保障科学研究优秀成果奖(科学技术)自然科学奖一等奖 - 结构化知识表示学习方法 (2020)
中国中文信息学会科学技术奖/钱伟长中文信息处理科学技术奖 - 大规模中文词汇语义分析关键技术及其开源应用 (2020)
国家青年拔尖人才计划 (2020)
中国精品科技期刊顶尖学术论文(F5000, 论文题目: 知识表示学习研究进展) (2020)《中国科学: 信息科学》2019年热点论文奖(论文题目: 网络表示学习综述) (2020)
《清华大学学报(自然科学版)》优秀审稿人 (2020)
AI 2000人工智能全球最具影响力学者 (2020)
清华大学先进工作者 (2020)
中国计算机学会杰出演讲者 (2019)
北京智源人工智能研究院青年科学家 (2019)
中国新闻传播学年鉴优秀论文奖(论文题目: 社交媒体平台谣言的早期自动检测) (2019)
MIT TR 35中国区榜单 (2018)
中国科协青年人才托举计划 (2017)
中国中文信息学会-钱伟长中文信息处理科学技术奖青年创新一等奖 (2016)
清华大学教学成果二等奖 (第3完成人/共5位申请人) (2016)
CCF-Intel 青年学者提升计划 (2015)
清华大学教学成果二等奖 (2014)
清华大学优秀博士后 (2013)
清华大学林枫辅导员奖 (2012)
中国人工智能学会优秀博士学位论文奖 (2012)
清华大学教学成果一等奖 (第3完成人/共5位申请人) (2012)
清华大学优秀博士学位论文二等奖 (2011)
清华大学百年校庆工作先进个人 (2011)
Google中国优秀实习生奖 (2010)
清华大学一等奖学金 (搜狐奖学金) (2010)
清华大学一等奖学金 (董氏东方奖学金) (2009)
清华大学一二九辅导员奖 (2008)
清华大学一等奖学金 (董氏东方奖学金) (2008)
清华大学优良毕业生 (2006)
学术成果
[1] Parameter-efficient fine-tuning of large-scale pre-trained language models. Ning Ding, Yujia Qin, Guang Yang, Fuchao Wei, Zonghan Yang, Yusheng Su, Shengding Hu, Yulin Chen, Chi-Min Chan, Weize Chen, Jing Yi, Weilin Zhao, Xiaozhi Wang, Zhiyuan Liu, Hai-Tao Zheng, Jianfei Chen, Yang Liu, Jie Tang, Juanzi Li, Maosong Sun. Nature Machine Intelligence, 2023.
[2] Transcription between human-readable synthetic descriptions and machine-executable instructions: an application of the latest pre-training technology. Zheni Zeng, Yi-Chen Nie, Ning Ding, Qian-Jun Ding, Wei-Ting Ye, Cheng Yang, Maosong Sun, E Weinan, Rong Zhu, Zhiyuan Liu. Chemical Science, 2023.
[3] WebCPM: Interactive Web Search for Chinese Long-form Question Answering. Yujia Qin, Zihan Cai, Dian Jin, Lan Yan, Shihao Liang, Kunlun Zhu, Yankai Lin, Xu Han, Ning Ding, Huadong Wang, Ruobing Xie, Fanchao Qi, Zhiyuan Liu, Maosong Sun, Jie Zhou. ACL, 2023.
[4] Augmentation-Adapted Retriever Improves Generalization of Language Models as Generic Plug-In. Xinze Li, Zhenghao Liu, Chenyan Xiong, Shi Yu, Yu Gu, Zhiyuan Liu, Ge Yu. ACL, 2023.
[5] Exploring Lottery Prompts for Pre-trained Language Models. Yulin Chen, Ning Ding, Xiaobin Wang, Shengding Hu, Haitao Zheng, Zhiyuan Liu, Pengjun Xie. ACL, 2023.
[6] Parameter-efficient Weight Ensembling Facilitates Task-level Knowledge Transfer. Xingtai Lv, Ning Ding, Yujia Qin, Zhiyuan Liu and Maosong Sun. ACL, 2023.
[7] Plug-and-Play Knowledge Injection for Pre-trained Language Models. Zhengyan Zhang, Zhiyuan Zeng, Yankai Lin, Huadong Wang, Deming Ye, Chaojun Xiao, Xu Han, Zhiyuan Liu, Peng Li, Maosong Sun, Jie Zhou. ACL, 2023.
[8] READIN: A Chinese Multi-Task Benchmark with Realistic and Diverse Input Noises. Chenglei Si, Zhengyan Zhang, Yingfa Chen, Xiaozhi Wang, Zhiyuan Liu and Maosong Sun. ACL, 2023.
[9] Decoder Tuning: Efficient Language Understanding as Decoding. Ganqu Cui, Wentao Li, Ning Ding, Longtao Huang, Zhiyuan Liu, Maosong Sun. ACL, 2023.
[10] A Close Look into the Calibration of Pre-trained Language Models. Yangyi Chen, Lifan Yuan, Ganqu Cui, Zhiyuan Liu, Heng Ji. ACL, 2023.
[11] KEPLER: A Unified Model for Knowledge Embedding and Pre-trained Language Representation. Xiaozhi Wang, Tianyu Gao, Zhaocheng Zhu, Zhengyan Zhang, Zhiyuan Liu, Juanzi Li, Jian Tang. ACL, 2021.
[12] Graph Neural Networks: A Review of Methods and Applications. Jie Zhou, Ganqu Cui, Shengding Hu, Zhengyan Zhang, Cheng Yang, Zhiyuan Liu, Lifeng Wang, Changcheng Li, Maosong Sun. AI Open, 2020.
[13] Neural Relation Extraction with Selective Attention over Instances. Yankai Lin, Shiqi Shen, Zhiyuan Liu, Huanbo Luan, Maosong Sun. ACL, 2016.
[14] ERNIE: Enhanced Language Representation with Informative Entities. Zhengyan Zhang, Xu Han, Zhiyuan Liu, Xin Jiang, Maosong Sun, Qun Liu. ACL, 2019.
[15] Learning Entity and Relation Embeddings for Knowledge Graph Completion Ziyue Qiao, Zhiyuan Ning, Yi Du, Yuanchun Zhou. AAAI, 2015.
[16] Network Representation Learning with Rich Text Information. Cheng Yang, Zhiyuan Liu, Deli Zhao, Maosong Sun, Edward Y. Chang. IJCAI, 2015.