LLMSAPP

大语言模型微调及其应用的探索 跟踪前沿的技术

LLMSAPP

一、人工智能、机器学习、AIGC、深度学习和大模型关系图

人工智能、机器学习、AIGC、深度学习和大模型关系图

正确的层次关系:

监督学习训练流程图

二、 AI前沿技术

2024年AIGC之2025年大模型应用落地发展预测

2025年AI新范式中最具突破性的技术

二、 大模型工具

Ollama是一个开源工具,旨在简化大型语言模型的本地化部署和使用,支持CPU/GPU混合计算,适用于隐私保护、成本控制等场景

MaxKB

三、 深度学习基本理论

3、梯度下降

4、学习率

5、逻辑回归

6、逻辑回归之激活函数

7、深度神经网络与前向传播

8、深度学习中激活函数

9、深度学习神经网络的反向传播与计算图

四、深度神经网络训练参数优化篇

1、向量化与矩阵化.md

2、深度神经网络之L2正则化.md

3、深度神经网络之Dropout.md

4、深度神经网络之数据归一化处理.md

5、深度神经网络之初始化权重参数.md

6、深度神经网络之全批量梯度下降、随机梯度下降和小批量梯度下降(mini-batch size)

7、深度神经网络之梯度参数调优

8、深度神经网络之参数优化(BatchNormaliztion)

五、训练大语言模型的不同阶段

分为三大步


pip install jupyter
pip install matplotlib

1. 准备阶段

1. 准备阶段

① 数据采集与初步处理

②、文本标准化与格式统一

  1. 统一编码, 全部转为utf-8格式
  2. 去掉各种HTML标签或JSON标识
  3. 处理特殊字符:乱码、表情符…
  4. 去掉多余的空格、空行
  5. 将所有大写字符转成小写字符(英文)

③、噪声去除与内容概率

  1. 删除重复数据
  2. 删除过短或者信息量不足的内容
  3. 过滤掉广告、导航、模板文本
  4. 过滤掉色情、暴力等信息

1、文本向量化

2、构建文本字典原理

3、Tokenize类封装

4、基于统计的分词技术(tiktoken)

5、文本向量化(Embedding).md

2. 预训练阶段

2. 预训练阶段

3. 交叉熵损失函数 torch.nn.funcational.cross_entropy(…)

4、 Dataset与Dataloader的关系

5、注意力机制

6、Transformer神秘架构

7、每次训练批次做事情 损失函数 调整 深度学习的参数

8、评估大语言模型.md

9、优化器的设置 两项技术 temperature 和 TOP-K合作关系

10、 保存模型和加载模型

3. 微调与应用

3. 微调与应用