
大纲:
自然语言处理(NLP)概述
迁移学习与预训练模型
经典模型:ELMo、BERT、GPT 系列
模型架构与训练方法
下游任务应用(分类、翻译、问答等)
前沿进展:多模态、大模型、效率优化
中心思想:
系统梳理语言预训练模型的发展脉络,分析 ELMo、BERT、GPT 等模型的技术特点及应用,强调预训练模型在 NLP 任务中的核心作用及未来多模态、高效化趋势。
电子书下载地址:
通过网盘分享的文件:北京理工大学-语言预训练模型与应用.pdf
链接: https://pan.baidu.com/s/1BIxzrabxas93sPlQNXzTNw 提取码: nez5
