Large Language Models
基于Transformer网络架构的LLM算法原理和实现系列
课程介绍: 基于Transformer网络架构的LLM算法原理和实现系列较为全面的介绍了在Transformer网络架构出现后NLP的相关技术原理和实现,主要内容表现在:
1、NLP的分词器(如WordPiece和BytePair Encoding);
2、词嵌入(如CBOW,Skip-Gram,Glove);
3、Transformer网络架构以及自注意力机制的实现,编码器解码器架构,以及基于编码器的文本分类,基于解码器的语言自回归任务,基于编码器解码器架构的语言翻译;
4、BERT原理和实现,基于BERT的QA(基于SQuAD)微调;
5、GPT原理以及基于GPT的自回归任务(包括Character-Level GPT)和Instruct GPT的基本原理(RLHF微调人类反馈的问题和指令任务等场景)。
这些知识分享系列不仅从知识原理上进行了较为详细的阐述,同样在实践环节也做了细致的解读和实验演示。
课程链接为:基于Transformer网络架构的LLM算法原理和实现系列课程 。