我的模型我做主02——训练自己的大模型:简易入门指南
zhezhongyun 2025-04-29 06:52 49 浏览
模型训练往往需要较高的配置,为了满足友友们的好奇心,这里我们不要内存,不要gpu,用最简单的方式,让大家感受一下什么是模型训练。基于你的硬件配置,我们可以设计一个完全在CPU上运行的简易模型训练方案。以下是具体步骤:
环境准备
这里以mac为例,其他系统原理类似,也可不使用miniconda,本文主要集中在训练代码和推理代码上。
安装Miniconda(推荐)
# 下载Miniconda
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-MacOSX-arm64.sh
# 安装
bash Miniconda3-latest-MacOSX-arm64.sh
创建虚拟环境
conda create -n tinyai python=3.9
conda activate tinyai
安装PyTorch
# 安装pytorch,也可通过官网选择合适的安装语句
pip install torch torchvision torchaudio
超简易模型训练方案
纯CPU训练微型文本模型
import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import Dataset, DataLoader
# 超简单数据集
class TextDataset(Dataset):
def __init__(self):
self.data = ["hello world", "deep learning", "apple silicon", "metal acceleration"]
def __len__(self):
return len(self.data)
def __getitem__(self, idx):
text = self.data[idx]
# 简单字符级编码
x = [ord(c) for c in text[:-1]]
y = [ord(c) for c in text[1:]]
return torch.tensor(x), torch.tensor(y)
# 超简单模型
class TinyLM(nn.Module):
def __init__(self, vocab_size=128):
super().__init__()
self.embed = nn.Embedding(vocab_size, 32)
self.rnn = nn.RNN(32, 64, batch_first=True)
self.fc = nn.Linear(64, vocab_size)
def forward(self, x):
x = self.embed(x)
out, _ = self.rnn(x)
return self.fc(out)
def custom_collate_fn(batch):
# batch是包含多个(__getitem__返回结果)的列表
x_batch, y_batch = zip(*batch)
# 找到本批次中的最大长度
max_len = max(len(x) for x in x_batch)
# 填充每个样本
x_padded = torch.stack([
torch.cat([x, torch.zeros(max_len - len(x), dtype=torch.long)])
for x in x_batch
])
y_padded = torch.stack([
torch.cat([y, torch.zeros(max_len - len(y), dtype=torch.long)])
for y in y_batch
])
return x_padded, y_padded
# 训练设置
dataset = TextDataset()
# loader = DataLoader(dataset, batch_size=2)
# 然后修改DataLoader
loader = DataLoader(dataset, batch_size=2, collate_fn=custom_collate_fn)
model = TinyLM()
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(model.parameters(), lr=0.01)
# 训练循环
for epoch in range(10):
for x, y in loader:
optimizer.zero_grad()
output = model(x)
loss = criterion(output.view(-1, 128), y.view(-1))
loss.backward()
optimizer.step()
print(f"Epoch {epoch}, Loss: {loss.item():.4f}")
# 保存模型和tokenizer(虽然我们用的是简单编码)
torch.save(model.state_dict(), 'tinylm.pth')
# 同时保存词汇表信息(这里只是示例,实际字符编码是固定的)
import pickle
with open('char_vocab.pkl', 'wb') as f:
pickle.dump({'vocab_size': 128}, f) # ASCII字符范围
模型推理
创建一个新的Python文件inference.py:
import torch
import torch.nn as nn
class TinyLM(nn.Module):
def __init__(self, vocab_size=128):
super().__init__()
self.embed = nn.Embedding(vocab_size, 32)
self.rnn = nn.RNN(32, 64, batch_first=True)
self.fc = nn.Linear(64, vocab_size)
def forward(self, x):
x = self.embed(x)
out, _ = self.rnn(x)
return self.fc(out)
# 加载模型
model = TinyLM()
model.load_state_dict(torch.load('tinylm.pth'))
model.eval() # 设置为评估模式
# 简单的字符编码函数
def text_to_tensor(text):
return torch.tensor([[ord(c) for c in text]])
# 推理函数
def generate_text(start_str, length=10):
input_seq = text_to_tensor(start_str)
hidden = None
for _ in range(length):
with torch.no_grad(): # 禁用梯度计算
output = model(input_seq)
# 获取最后一个字符的预测
last_char_logits = output[0, -1, :]
# 选择概率最高的字符
predicted_char = torch.argmax(last_char_logits).item()
# 添加到输入序列中
input_seq = torch.cat([
input_seq,
torch.tensor([[predicted_char]])
], dim=1)
# 将数字转换回字符
generated_text = ''.join([chr(c) for c in input_seq[0].tolist()])
return generated_text
# 使用示例
if __name__ == "__main__":
while True:
seed = input("输入起始字符串(或输入q退出): ")
if seed.lower() == 'q':
break
generated = generate_text(seed, length=20)
print(f"生成结果: {generated}")
运行推理示例
输入起始字符串(或输入q退出): hello
生成结果: hello world deep lear
结果分析
生成的文本无意义
主要原因是模型太小或训练不足,后续的解决方案是增加训练epoch或扩大模型,当然本文的目的就是让大家熟悉一下基本的模型训练和推理流程。
相关推荐
- perl基础——循环控制_principle循环
-
在编程中,我们往往需要进行不同情况的判断,选择,重复操作。这些时候我们需要对简单语句来添加循环控制变量或者命令。if/unless我们需要在满足特定条件下再执行的语句,可以通过if/unle...
- CHAPTER 2 The Antechamber of M de Treville 第二章 特雷维尔先生的前厅
-
CHAPTER1TheThreePresentsofD'ArtagnantheElderCHAPTER2TheAntechamber...
- CHAPTER 5 The King'S Musketeers and the Cardinal'S Guards 第五章 国王的火枪手和红衣主教的卫士
-
CHAPTER3TheAudienceCHAPTER5TheKing'SMusketeersandtheCardinal'SGuard...
- CHAPTER 3 The Audience 第三章 接见
-
CHAPTER3TheAudienceCHAPTER3TheAudience第三章接见M.DeTrévillewasatt...
- 别搞印象流!数据说明谁才是外线防守第一人!
-
来源:Reddit译者:@assholeeric编辑:伯伦WhoarethebestperimeterdefendersintheNBA?Here'sagraphofStea...
- V-Day commemorations prove anti-China claims hollow
-
People'sLiberationArmyhonorguardstakepartinthemilitaryparademarkingthe80thanniversary...
- EasyPoi使用_easypoi api
-
EasyPoi的主要特点:1.设计精巧,使用简单2.接口丰富,扩展简单3.默认值多,writelessdomore4.springmvc支持,web导出可以简单明了使用1.easypoi...
- 关于Oracle数据库12c 新特性总结_oracle数据库12514
-
概述今天主要简单介绍一下Oracle12c的一些新特性,仅供参考。参考:http://docs.oracle.com/database/121/NEWFT/chapter12102.htm#NEWFT...
- 【开发者成长】JAVA 线上故障排查完整套路!
-
线上故障主要会包括CPU、磁盘、内存以及网络问题,而大多数故障可能会包含不止一个层面的问题,所以进行排查时候尽量四个方面依次排查一遍。同时例如jstack、jmap等工具也是不囿于一个方面的问题...
- 使用 Python 向多个地址发送电子邮件
-
在本文中,我们将演示如何使用Python编程语言向使用不同电子邮件地址的不同收件人发送电子邮件。具体来说,我们将向许多不同的人发送电子邮件。使用Python向多个地址发送电子邮件Python...
- 提高工作效率的--Linux常用命令,能够决解95%以上的问题
-
点击上方关注,第一时间接受干货转发,点赞,收藏,不如一次关注评论区第一条注意查看回复:Linux命令获取linux常用命令大全pdf+Linux命令行大全pdf为什么要学习Linux命令?1、因为Li...
- linux常用系统命令_linux操作系统常用命令
-
系统信息arch显示机器的处理器架构dmidecode-q显示硬件系统部件-(SMBIOS/DMI)hdparm-i/dev/hda罗列一个磁盘的架构特性hdparm-tT/dev/s...
- 小白入门必知必会-PostgreSQL-15.2源码编译安装
-
一PostgreSQL编译安装1.1下载源码包在PostgreSQL官方主页https://www.postgresql.org/ftp/source/下载区选择所需格式的源码包下载。cd/we...
- Linux操作系统之常用命令_linux系统常用命令详解
-
Linux操作系统一、常用命令1.系统(1)系统信息arch显示机器的处理器架构uname-m显示机器的处理器架构uname-r显示正在使用的内核版本dmidecode-q显示硬件系...
- linux网络命名空间简介_linux 网络相关命令
-
此篇会以例子的方式介绍下linux网络命名空间。此例中会创建两个networknamespace:nsa、nsb,一个网桥bridge0,nsa、nsb中添加网络设备veth,网络设备间...
- 一周热门
- 最近发表
-
- perl基础——循环控制_principle循环
- CHAPTER 2 The Antechamber of M de Treville 第二章 特雷维尔先生的前厅
- CHAPTER 5 The King'S Musketeers and the Cardinal'S Guards 第五章 国王的火枪手和红衣主教的卫士
- CHAPTER 3 The Audience 第三章 接见
- 别搞印象流!数据说明谁才是外线防守第一人!
- V-Day commemorations prove anti-China claims hollow
- EasyPoi使用_easypoi api
- 关于Oracle数据库12c 新特性总结_oracle数据库12514
- 【开发者成长】JAVA 线上故障排查完整套路!
- 使用 Python 向多个地址发送电子邮件
- 标签列表
-
- HTML 教程 (33)
- HTML 简介 (35)
- HTML 实例/测验 (32)
- HTML 测验 (32)
- JavaScript 和 HTML DOM 参考手册 (32)
- HTML 拓展阅读 (30)
- HTML文本框样式 (31)
- HTML滚动条样式 (34)
- HTML5 浏览器支持 (33)
- HTML5 新元素 (33)
- HTML5 WebSocket (30)
- HTML5 代码规范 (32)
- HTML5 标签 (717)
- HTML5 标签 (已废弃) (75)
- HTML5电子书 (32)
- HTML5开发工具 (34)
- HTML5小游戏源码 (34)
- HTML5模板下载 (30)
- HTTP 状态消息 (33)
- HTTP 方法:GET 对比 POST (33)
- 键盘快捷键 (35)
- 标签 (226)
- HTML button formtarget 属性 (30)
- opacity 属性 (32)
- transition 属性 (33)