Skip to content

语言文化计算研究室欢迎新成员!

An image 你的朋友圈是否也曾被“人工智能”刷屏过?你是否听说或使用过ChatGPT?你是否对如何让计算机理解和生成人类语言充满好奇?随着自然语言处理技术的飞速发展,我们已经步入了一个全新的时代。在这个时代里,语言不再只是人类之间交流的工具,它也已经成为连接人类智慧与机器智能的桥梁。你是否想成为这场人工智能浪潮的弄潮儿,探索语言和技术的奥秘?

北京语言大学语言文化计算研究室(LCC-Lab)欢迎你的加入!

招生信息

语言文化计算研究室(Language and Culture Computing Laboratory,简称LCC Lab)是隶属于北京语言大学信息科学学院的研究团队。

团队导师:邵艳秋(教授)、李炜
团队规模:在读硕士生、博士生共计21人
团队主要研究方向:语义计算、知识图谱构建及应用、语言资源建设、数字人文等

计划招生人数:10 (硕士研究生)
计划招生专业: 计算机科学与技术4 人 、语言智能与技术2 人、语言学及应用语言学(语言信息处理)4 人。

邵老师邮箱:shaoyanqiu@blcu.edu.cn
李老师邮箱:liweitj47@blcu.edu.cn
欢迎来戳哦:梁闯 LC-Metase(微信号)李罗希 LX35554(微信号)

师资力量

团队拥有两位老师,具有丰富的教学经验和浓厚的学术研究兴趣,能够提供优质的学术资源和学术指导。

邵艳秋,博士、北京语言大学信息科学学院教授、博士生导师。团队核心导师,毕业于哈尔滨工业大学计算机科学与技术学院,获得计算机应用专业博士学位,北京大学计算语言学研究所博士后。中国中文信息学会计算语言学专业委员会委员。主要研究方向为自然语言处理、人文计算。近年来主持国家自然科学基金、教育部人文社科基金、国家语委“十二五”科研规划重点项目,博士后科学基金、校内重大专项等课题,入选北京语言大学中青年骨干基金支持计划,在国内外会议和期刊上已发表论文60余篇。部分论文:

  • Yanqiu Shao, Wanxiang Che, Ting Liu, and Yu Ding. The Construction of a Chinese Semantic Dependency Graph Bank. Chinese Language Resources. Part of the Text, Speech and Language Technology book series( TLTB volume 49) 2023: 211-226.
  • D. Liu, L. Zhang, Y. Shao and J. Sun. Leverage external knowledge and selfattention for chinese semantic dependency graph parsing. Intelligent Automation & Soft Computing, vol. 28, no.2, pp. 447–458, 2021.
  • 邵艳秋, 申资卓, 刘世军. 基于依存搭配抽取技术的平面媒体语言监测研究. 山西大学学报(自然科学版), 2019, 42(3): 526-533.

李炜,博士、讲师。团队年轻力量,毕业于北京大学信息科学技术学院,获得计算机软件与理论专业博士学位,主要研究方向为智能中医、数字人文、自然语言处理。在国际顶级会议ACL、EMNLP、AAAI、IJCAI、CIKM等上发表论文了十余篇,以共同作者身份发表的论文《SGM: Sequence Generation Model for Multi-label Classification》获得COLING2018最佳论文奖。目前谷歌学术引用量1700+。部分论文:

  • Multi-level Gated Recurrent Neural Network for dialog act classification. COLING 2016
  • Coherent Comment Generation for Chinese Articles with a Graph-to-Sequence Model. ACL 2019
  • Modeling the Stock Relation with Graph Network for Overnight Stock Movement Prediction. IJCAI 2020
  • Long-term, Short-term and Sudden Event: Trading Volume Movement Predictionwith Graph-based Multi-view Modeling. IJCAI 2021

专业背景

团队学生背景多元,文理交叉,能跨学科跨领域共同思考,在不同方向上展开研究,具有较高的解决问题的能力。招生方向有计算机科学与技术、语言智能与技术、语言学及应用语言学、图书情报学等专业。

科研成果

课题组科研经费充足,科研成果较为丰富。每年有近十篇论文发表在国内外NLP领域相关会议、期刊。我们积极组织参加学术会议和研讨会,团队成员曾在CCF国际自然语言处理与中文计算会议 (NLPCC)、汉语词汇语义学国际研讨会 (CLSW)、中国计算语言学大会(CCL)等知名学术会议上发表论文和做报告,交流团队学术研究成果,分享研究经验,拓宽学术视野。多名学生获校级研究生创新基金项目。

科研项目(部分)

  • 基于词汇语义网络的中文深层语义分析. 国家自然科学基金(61872402)
  • 面向中医古籍的多层次术语知识挖掘关键技术研究. 国家自然科学基金青年基金(62306045)
  • 汉语特殊句式语义依存图的表示与句模分析研究. 教育部人文社科规划基金(17YJAZH068 ).
  • 基于语义分析的词语搭配历时计算研究. 国家语委“十二五”科研规划2015年度重点项目(ZDI125-41)
  • 中文语义依存分析资源建设及关键技术研究.北京语言大学重大基础研究专项项目(18ZDJ03)

专利

李炜,邵艳秋,董立成,申资卓,杜彦融.一种对文言文机器翻译结果自动评估的方法和系统:ZL 2023 1 0973916.4[P]. 2023-10-20.

邵艳秋,李炜,姜嘉星,李祎,宣茜.一种基于知识表示学习的文言文知识迁移方法及系统:ZL 2023 1 0973852.8[P]. 2023-11-03.

李炜,黄舒坦,邵艳秋,张少琪.一种基于预训练语言模型的无监督上下文自适应中文简繁体字符转换系统:ZL 2023 11541516.2.[P]. 2024-01-23

学术论文(部分)

Congcong Wei, Zhenbing Feng, Shutan Huang, Wei Li, Yanqiu Shao. CHED: A Cross-Historical Dataset with a Logical Event Schema forClassical Chinese Event Detection.CCL 2023

Shuhan Zhou, Longxuan Ma, Yanqiu Shao.Exploring Accurate and Generic Simile Knowledge from Pre-trainedLanguage Models.CCL 2023

Wei Li, Zheng Yang, Yanqiu Shao. Domain Specific Pre-training Methods for Traditional Chinese Medicine Prescription Recommendation. CICAI 2023

Zhiyuan Zhang, Wei Li, Ruihan Bao, Keiko Harimoto, Yunfang Wu, Xu Sun.ASAT: Adaptively scaled adversarial training in time series[J]. Xu Neurocomputing,2023,522:11-23.

MCER: A Multi-domain Dataset for Sentence-Level Chinese Ellipsis Resolution.Jialu Qi,Yanqiu Shao,Wei Li,Zizhuo Shen.NLPCC2022

Research on Sentence Alignment of Ancient and Modern Chinese based on Reinforcement Learning.Kuai Yu,Yanqiu Shao,Wei Li.CCL 2022

A Study on the Recovery of Omitted Constituents in Chinese Elliptical Sentences.HanYan,Yiran Zhao,Peipei Sun,Yanqiu Shao.CLSW 2022

Semantic Dependency Analysis of Special Sentence Patterns in Ancient Chinese.Xuan Chen,Yanqiu Shao.CLSW 2022

半监督跨领域语义依存分析技术研究.毛达展,邵艳秋.《中文信息学报》2022

《二十四史》古代汉语语义依存图库构建.黄恬,邵艳秋,李炜.CCL 2022

针对古代经典文献的引用查找问题的数据构建与匹配方法.李炜,邵艳秋,毕梦曦.CCL2022

毛达展《基于领域自适应的语义依存分析方法研究》获得2022年北京语言大学校级优秀硕士毕业论文,邵艳秋教授获得优秀导师。

喻快《古今汉语平行语料对齐方法研究》获得2023年北京语言大学校级优秀硕士毕业论文,邵艳秋教授获得优秀导师。

学术交流

此外,团队紧跟学术前沿,积极邀请相关领域的专家学者展开深入的学术交流和合作。我们邀请了北京大学计算语言学研究所的李素建老师做了《Research on Discourse Parsing:from the Dependency View》学术报告;北京大学前沿交叉学科研究院大数据中心的高润东博士做了《基于自然语言的图像生成模型》的专题汇报,详细介绍了多模态前沿进展;北京大学张之远博士做了《自然语言处理模型的安全研究》专题分享。

组内硬件资源

实验室的办公设备经过更新,现在拥有一系列新设备,包括纯净水机、打印机、无线网络、ChatGPT Plus 账户以及付费 API 等。拥有 NVIDIA A800 80G 等专业计算卡,以更好地支持对大型模型的研究。除此之外,我们还配置了方便快捷的数字化门户 Digital LCC,提供远程环境和云存储等一系列服务,旨在更好地满足工作和研究的需求。

组内活动

团结紧张、严肃活泼,活动丰富,科研与娱乐结合是团队特色。

组内定期举行各类团体活动,如每周组会、读书会、年会、毕业答谢宴、聚餐、运动等。发挥“传帮带”作用,帮助新生融入学校生活,快速进入科研状态。

团队注重身心健康,不定期组织羽毛球、乒乓球、飞盘、郊游等活动,缓解学业压力,增强身体素质,增进团队互动。(Ps:邵老师很擅长乒乓球,咱们组能薅私教课哈哈~)这些活动为大家提供了一个积极、开放、充满创造力的环境,促进团队和个人成长和发展,为我们的研究工作提供了坚实的基础和支持。

毕业去向

在亲和温柔的邵老师和专业扎实、科研动力十足的小李老师的带领下,学生自驱力较强,科研资源丰富,实习资源优质,就业具有一定的竞争力。团队学生发展良好,毕业去向如下:读博深造;进入政府机关和中国银行、人民网、兴唐通信等国企事业单位;更多是进入腾讯、小米、美团、百度、大疆、科大讯飞等一线互联网企业。

欢迎关注

An image 微信号|lcclab-blcu

主页 | https://blcu-lcclab.cn