盘天下 | 免费精选资源分享

大规模语言模型

出版刊物 2024-12-16 1025 0


作者简介

张奇
复旦大学 计算机 科学 技术 学院教授、博士生导师。主要研究方向是 自然 语言 处理和 信息 检索。兼任 中国 中文信息学会理事,中国中文信息学会信息检索专委会常务委员,中国 人工智能 学会青年 工作 委员会常务委员。多次担任ACL、EMNLP、COLING、全国信息检索大会等重要国际、国内会议的 程序 委员会主席、领域主席、讲习班主席等。承担国家重点研发计划课题、国家 自然科学 基金 、上海市科委等多个项目,在国际重要学术刊物和会议上发表论文150余篇,获得 美国 授权专利 4 项。获得WSDM 2014最佳论文提名奖、COLING 2018领域主席推荐奖、NLPCC 2019杰出论文奖、COLING 2022杰出论文奖。获得上海市“晨光计划”人才计划、复旦大学“卓越 2025 ”人才培育计划等支持,获得钱伟长中文信息处理科学技术一等奖、汉王青年 创新 一等奖、上海市 科技 进步二等奖、 教育 部科技进步二等奖、ACM上海新星提名奖、IBM Faculty Award等奖项。
桂韬
复旦大学自然语言处理实验室副研究员、硕士生导师。研究领域为预训练模型、信息抽取和鲁棒模型。在高水平国际学术期刊和会议上发表论文40余篇,主持国家自然科学基金、计算机学会、人工 智能 学会的多个基金项目。获得钱伟长中文信息处理科学技术一等奖、中国中文信息学会优秀博士论文奖、COLING 2018最佳论文提名奖、NLPCC 2019杰出论文奖,入选第七届中国科协青年人才托举工程,入选上海市2023年度“科技创新行动计划”启明星项目,获得2023年度 世界 人工智能大会云帆奖。
郑锐
复旦大学计算机科学技术学院博士生,导师为张奇教授。研究兴趣包括大模型对齐、鲁棒性等。MOSS-RLHF 开源项目 负责人,文本鲁棒性评测 工具 TextFlint的核心贡献者,在ACL、EMNLP、COLING等国际会议上发表学术论文十余篇。
黄萱菁
复旦大学计算机科学技术学院教授、博士生导师。主要从事人工智能、自然语言处理和信息检索研究。兼任中国中文信息学会理事,中国计算机学会自然语言处理专委会副主任,中国人工智能学会女科技工作者委员会副主任,计算语言学学会亚太分会副主席,亚太信息检索学会指导委员会委员。承担国家重点研发计划课题、国家自然科学基金等多个项目,在国际重要学术刊物和会议上发表论文150余篇。获得钱伟长中文信息处理科学技术一等奖、上海市育才奖、人工智能 全球 女性 学者、福布斯中国科技女性等多项荣誉。

大规模语言模型

内容简介

《大规模语言模型:从理论到实践》详细介绍了构建大语言模型的四个主要阶段:预训练、有监督微调、奖励建模和强化 学习 。每个阶段都有 算法 、代码、 数据 、难点及实践 经验 的详细讨论。

《大规模语言模型:从理论到实践》以大语言模型的基础理论开篇,探讨了大语言模型预训练数据的构建 方法 ,以及大语言模型如何理解并服从 人类 指令,介绍了大语言模型的应用和评估方法,为读者提供了更全面的视野。

《大规模语言模型:从理论到实践》旨在为对大语言模型感兴趣的读者提供入门指南,也可作为高年级本科生和研究生自然语言处理相关课程的补充教材。

张奇

复旦大学计算机科学技术学院教授、博士生导师。主要研究方向是自然语言处理和信息检索。兼任中国中文信息学会理事,中国中文信息学会信息检索专委会常务委员,中国人工智能学会青年工作委员会常务委员。多次担任ACL、EMNLP、COLING、全国信息检索大会等重要国际、国内会议的程序委员会主席、领域主席、讲习班主席等。承担国家重点研发计划课题、国家自然科学基金、上海市科委等多个项目,在国际重要学术刊物和会议上发表论文150余篇,获得美国授权专利4项。获得WSDM 2014最佳论文提名奖、COLING 2018领域主席推荐奖、NLPCC 2019杰出论文奖、COLING 2022杰出论文奖。获得上海市“晨光计划”人才计划、复旦大学“卓越2025”人才培育计划等支持,获得钱伟长中文信息处理科学技术一等奖、汉王青年创新一等奖、上海市科技进步二等奖、教育部科技进步...

下载地址

闲趣赚

转载请注明出处,本文链接:https://www.80srz.com/pantx/52611.html

(0)
收藏 (0)

评论列表