【活动预告】山东省人工智能大讲堂(2023年第1期 总第25期)
主题:ChatGPT语言模型技术与应用
时间:2023年3月25日(星期六)上午9:00至11:30
腾讯会议链接:
https://meeting.tencent.com/dm/wq1TqvEZ9KYj
腾讯会议ID:656-443-778
主办单位
山东省人工智能学会
承办单位
山东大学,山东建筑大学
会议议程
9:00-9:10 |
致辞 |
9:10-9:50 |
孔令鹏,香港大学 报告题目:Self-Adaptive In-Context Learning for Natural Language Processing (自适应上下文学习) |
9:50-10:30 |
魏忠钰,复旦大学 报告题目:基于语言模型的一体化政治人物建模框架 |
10:30-11:10 |
严睿,中国人民大学 报告题目:智能人机对话学习中的小模型与大模型 |
报告嘉宾:
孔令鹏
报告题目:Self-Adaptive In-Context Learning for Natural Language Processing (自适应上下文学习)
报告摘要: In this talk, we will explore the latest advancements in self-adaptive In-Context Learning (ICL) for Natural Language Processing (NLP) tasks. We will discuss how the self-adaption mechanism can optimize the selection and ordering of in-context examples, maximizing the performance of pretrained language models without parameter updates. We will introduce the general select-then-rank framework and delve into new selection and ranking algorithms, including the proposed Compositional Exemplars for In-context Learning (CEIL) method, which leverages Determinantal Point Processes (DPPs) for subset selection. Through extensive evaluation on a variety of NLP tasks and datasets, we will demonstrate the potential of self-adaptive ICL in achieving significant performance improvements over common practice settings, and its ability to potentially close the gap between ICL and finetuning with more advanced algorithms. The talk will also highlight the transferability and compositionality of the CEIL method, offering insights into effective and efficient in-context learning for the future of NLP.
在本次演讲中,我们将探讨自然语言处理(NLP)任务中自适应上下文学习(Self-Adaptive In-Context Learning)的最新进展。我们将讨论自适应机制如何优化上下文示例的选择和排序,最大限度地提高预训练语言模型在不更新参数的情况下的性能。我们将介绍一般的选择-排序框架,并深入研究新的选择和排序算法,包括所提出的用于在上下文学习的组合示例(CEIL)方法,该方法利用行列式点过程(DPPs)进行子集选择。通过对各种NLP任务和数据集的广泛评估,我们将展示自适应ICL在实现相对于常规设置的显著性能改进的潜力,以及在采用更先进的算法的情况下可能缩小ICL与微调之间差距的能力。本次演讲还将强调CEIL方法的可迁移性和组合性,为NLP未来的高效和有效的在上下文学习提供见解。
专家简介:孔令鹏博士,现任香港大学计算机科学系助理教授。2017年从卡耐基梅隆大学(Carnegie Mellon University)计算机学院毕业获得博士学位。在加入香港大学前,曾于在Google DeepMind担任研究科学家。研究方向是自然语言处理与机器学习,包括表征学习,结构预测和生成模型。常年担任机器学习与自然语言处理会议(ICLR, NeurIPS, ICML等)的领域主席。
报告嘉宾:
魏忠钰
报告题目:基于语言模型的一体化政治人物建模框架
报告摘要:计算政治学的一个核心研究课题是使用量化方法进行议员行为的刻画。当前议员的行为建模研究很大程度上依赖投票数据,学者们基于议员的历史投票结果对他们的政治立场进行学习和估计。基于投票数据的建模方法存在两大问题:第一,模型泛化能力弱,无法针对没有投票数据积累的议员进行建模;第二,模型可解释性差,没有途径获取议员行为背后的原因,无法捕捉其政治观点。针对这两个问题,讲者的研究团队探索了不同的语言模型驱动的政治人物建模方法。主要工作包括:(1)结合公开言论和投票行为的议员表示学习方法;(2) “领域适配-事件微调”的两阶段政治文本分析框架;(3)语言模型驱动的一体化政治人物建模框架。
专家简介:复旦大学大数据学院副教授,智能复杂体系实验室双聘研究员,博士生导师,复旦大学数据智能与社会计算实验室(Fudan DISC)负责人,香港中文大学博士,美国德州大学达拉斯分校博士后。现任中国中文信息学会情感计算专委会副秘书长,社交媒体处理专委会常务委员兼秘书,青年工作委员会执委会副主任。担任多个重要国际会议包括EMNLP、ACL的高级领域主席和组织委员会成员。主要研究领域包括自然语言处理,社会计算和多模态智能交互技术,在国内外相关领域高水平会议及期刊发表论文80余篇。曾获得2019年度中国中文信息学会社会媒体处理新锐奖,2020年度华为技术优秀成果奖,2021年上海市启明星计划,2022年中国计算机学会自然语言处理新锐学者奖。
报告嘉宾:
严睿
报告题目:智能人机对话学习中的小模型与大模型
报告摘要:随着ChatGPT热潮席卷全球,智能人机对话技术在学术界和工业界都获得了前所未有的关注度,也让人们看到了对话系统背后的技术正在从量变走向质变。随着研究者的探索愈发深入,人们看到对话系统逐渐从科幻电影中走进现实生活的可能。本次报告将探讨人机对话技术背后的小模型与大模型,以及比较两者的共性与特性,解析其不同的技术着力点,并给出概要的分析介绍。
专家简介:严睿博士任中国人民大学高瓴人工智能学院长聘副教授,曾先后担任北京大学王选计算机所助理教授与百度公司资深研发。严睿博士入选了中国人民大学杰出学者,智源人工智能研究院智源学者,以及微软亚洲研究院铸星学者。到目前共发表论文130余篇,引用9000余次。多次担任重要国内外学术会议的领域主席及资深评审人,也多次受邀于重要国内外学术会议宣讲教程报告tutorial。
执行主席
个人简介:任昭春,于2016年在荷兰阿姆斯特丹大学取得博士学位;之后在伦敦大学学院和京东数据科学实验室工作,目前为山东大学教授、博士生导师。任昭春主要从事信息检索方面的研究,研究兴趣为对话式信息获取,个性化检索与推荐以及文本理解与生成。近年来在国际学术会议和期刊上发表论文90余篇,谷歌学术引用超过3300次,多次获得顶级学术会议最佳论文和最佳论文提名奖,应邀担任信息检索领域和自然语言处理领域多项顶级会议程序委员会委员和期刊审稿人,在信息检索领域一直担任多项会议和期刊的组织服务工作。
个人简介:聂秀山,教授,山东省泰山学者青年专家,山东省杰出青年基金获得者,山东省高校青创人才引育计划团队 “机器学习与智慧城市数据挖掘”负责人,以第一或通讯作者发表高水平论文50余篇;主持国家自然科学基金项目和省级项目多项;获得山东省科技进步奖、吴文俊人工智能科学技术奖等多项奖励。目前担任中国人工智能学会青年工委常委、山东省人工智能学会常务理事、学术工委秘书长等学术兼职。曾担任第七届中国数据挖掘大会和CCF第一届国际人工智能会议组织主席、第一届山东省人工智能大会程序主席等。