获取资料

从0到1训练自己的大模型 揭密ChatGPT背后的技能与应用

从0到1训练自己的大模型 揭密ChatGPT背后的技能与应用

课程介绍

从0到1训练私有大模型 ,企业急迫需求,抢占市场先机视频教程。本课深入企业需求,从ChatGPT背后原理、技术、不同大模型知识开始,带你从0到1训练出一个大模型,运用PEFT技巧微调大模型解决场景需求,最后用LangChain+训练的大模型搭建知识库问答。让你掌握大模型LLM构建的原理、技术、流程与实战,超越大多数竞争者,抢占先机,脱颖而出。

相关推荐

极客时间-AI 大模型应用开发实战营

ChatGPT入门实战课 成为AI时代更有竞争力的开发者

你将学会

从0到1训练你自己的大模型

ChatGPT等大模型的训练原理

多NLP任务逻辑解决实际问题

PEFT微调大模型解决场景需求

揭密核心BERT和GPT等大模型

LangChain+大模型问答搭建

资源目录

.

1-课程介绍/

[ 40M] 1-1 [导航]课程导学&让你快速了解课程

[ 11M] 1-2 [内容安排]课程安排和学习建议

[ 39M] 1-3 [行业发展]ChatGPT对行业、社会有什么影响,我们要如何应对

[ 15M] 1-4 [发展史]ChatGPT的简要历史

[6.3M] 1-5 [学习须知]本课程为什么使用gpt2而不是gpt3

2-训练模型与开发平台环境/

[8.9M] 2-1 [认知]为什么要引入paddle?平时使用torch,学习paddle貌似没用怎么办?

[9.0M] 2-2 [框架]paddle和torch与tensorflow对比

[5.3M] 2-3 [NLP工具和预训练模型]paddleNLP和huggingface

[ 24M] 2-4 [平台]介绍aistudio

[ 19M] 2-5 [工具]介绍基于gpt4的IDE cursor

3-chatGPT初始技术词向量原理剖析与实战/

[6.9M] 3-1 [认知]词向量,词向量与gpt的关系

[ 20M] 3-2 [语言模型]语言模型和评估指标PPL

[ 16M] 3-3 [词向量模型]word2vec-cbow和skipgram

[ 22M] 3-4 [softmax加速]是softmax 树型优化

[ 18M] 3-5 [softmax加速]softmax负采样优化

[ 57M] 3-6 [数据准备与预处理]word2vec实战(1)

[ 42M] 3-7 [数据准备与预处理]word2vec实战(2)

[ 26M] 3-8 [模型训练]word2vec实战-模型开发和训练(1)

[ 36M] 3-9 [模型训练]word2vec实战-模型开发和训练(2)

[ 18M] 3-10 [激活函数]常见七种激活函数对比

[ 36M] 3-11 [预训练语言模型]RNN-LSTM-ELMO

[5.0M] 3-12 本章梳理小结

4-chatGPT基石模型——基于Transformer架构的语言模型/

[2.2M] 4-1 本章介绍

[ 21M] 4-2 seq2seq结构和注意力

[ 11M] 4-3 seq2seq-attention的一个案例

[ 49M] 4-4 transformer的multi-head attention 多头注意力机制

[ 16M] 4-5 transformer的残差链接-解决梯度消失问题

[9.7M] 4-6 transformer的layernorm-归一化提升训练稳定性

[ 19M] 4-7 transformer的decoder 解码器

[ 10M] 4-8 sparse-transformer 稀疏模型

[ 33M] 4-9 transformer-xl 解决长序列的问题(1)

[ 36M] 4-10 transformer-xl解决长序列的问题(2)

[6.0M] 4-11 本章梳理总结

5-基于Transformer另一分支Bert系列分析与实战/

[1.8M] 5-1 本章介绍

[ 31M] 5-2 metric-评估指标(BLUE-rouge-L-METOER-NIST)

[9.5M] 5-3 常见 subword 算法(BPE-wordpiece)

[9.5M] 5-4 常见的NLP任务

[ 50M] 5-5 bert 预训练模型

[ 43M] 5-6 bert情感分析实战-paddle(1)

[ 49M] 5-7 bert情感分析实战-paddle(2)

[ 24M] 5-8 evaluate和predict方法-paddle

[ 39M] 5-9 bert(transformer encoder)主要源码分析-paddle(1)

[ 39M] 5-10 bert(transformer encoder)主要源码分析-paddle(2)

[ 68M] 5-11 bert(transformer encoder)的完整源码cache部分分析-paddle

[ 34M] 5-12 Ernie文心一言基础模型(1)

[ 15M] 5-13 Ernie文心一言基础模型(2)

[ 33M] 5-14 plato百度对话模型(1)

[ 31M] 5-15 plato 百度对话模型(2)

[ 15M] 5-16 本章总结

6-chatGPT的核心技术——强化学习/

[ 18M] 6-1 RL是什么&为什么要学习RL

[4.0M] 6-2 强化学习章介绍

[ 11M] 6-3 RL基础概念

[ 25M] 6-4 RL马尔可夫过程

[ 29M] 6-5 RL三种方法(1)

[ 10M] 6-6 RL三种方法(2)

[ 16M] 6-7 DQN和DQN的2种改进算法(1)

[ 25M] 6-8 DQN和DQN的2种改进算法(2)

[ 42M] 6-9 actor-critic(1)

[ 11M] 6-10 actor-critic(2)

[ 46M] 6-11 TRPO+PPO(1)

[ 31M] 6-12 TRPO+PPO(2)

[ 45M] 6-13 DQN代码实践torch-1

[ 47M] 6-14 DQN代码实践torch-2

[ 47M] 6-15 DoubleDQN+DuelingDQ代码torch

[ 47M] 6-16 REINFORCE代码torch

[ 63M] 6-17 PPO代码实践torch

[ 20M] 6-18 强化学习-本章总结

7-chatGPT技术演变——从GPT 1 开始的大模型发展与演化/

[认准一手完整 www.ukoou.com]

[ 30M] 7-1 GPT1 模型

[ 32M] 7-2 GPT2 模型

[ 35M] 7-3 GPT3 模型-1

[ 27M] 7-4 GPT3 模型-2

[ 27M] 7-5 gpt-codex 基于GPT技术开发的模型

[ 35M] 7-6 alphaCode基于GPT技术开发的模型-1

[ 20M] 7-7 alphaCode基于GPT技术开发的模型-2

[ 23M] 7-8 instruct-gpt 基于GPT技术开发的模型-1

[ 26M] 7-9 instruct-gpt 基于GPT技术开发的模型-2

[ 44M] 7-10 Antropic LLM大型语言模型

[ 16M] 7-11 GPT-本章总结

8-RLHF训练类ChatGPT模型代码实战/

[ 11M] 8-1 chatGPT训练实战

[ 61M] 8-2 SFT有监督的训练-数据处理

[ 39M] 8-3 SFT有监督训练-trainer

[ 62M] 8-4 SFT有监督训练-train

[ 34M] 8-5 RM训练-model+dataset(1)

[ 30M] 8-6 RM训练-model+dataset(2)

[ 30M] 8-7 RM训练-trainer

[ 38M] 8-8 RM训练-train-rm

[ 17M] 8-9 RLHF强化学习人类反馈的训练-dataset

[ 27M] 8-10 RLHF强化学习人类反馈的训练-model-base

[ 17M] 8-11 RLHF强化学习人类反馈的训练-model-opt

[ 46M] 8-12 RLHF强化学习人类反馈的训练-generation(1)

[ 48M] 8-13 RLHF强化学习人类反馈的训练-generation(2)

[ 36M] 8-14 RLHF强化学习人类反馈的训练-exp_maker(1)

[ 42M] 8-15 RLHF强化学习人类反馈的训练-exp_maker(2)

[ 59M] 8-16 RLHF强化学习人类反馈的训练-buffer-utils

[ 46M] 8-17 RLHF强化学习人类反馈的训练-buffer-loss

[ 57M] 8-18 RLHF强化学习人类反馈的训练-trainer

[ 66M] 8-19 RLHF强化学习人类反馈的训练-main

评论0

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址