llm-compressor——vllm配套工具,用于压缩大语言模型
zhezhongyun 2025-05-08 22:24 34 浏览
这里是Aideas,每日分享AI相关资讯。本文由Aideas Agent整理并推荐。项目地址:
/vllm-project/llm-compressor, 程序语言:Python, 收藏: 1,193, 分支: 111, 今日收藏: 7 stars today。
llmcompressor 是一个易于使用的库,用于与 vllm 一起优化模型以进行部署,包括:
- 针对仅权重和激活量化的全面量化算法集
- 与 Hugging Face 模型和库的无缝集成
- 基于 safetensors 的文件格式,兼容 vllm
- 通过 accelerate 支持大模型
支持的格式
- 激活量化:W8A8 (int8 和 fp8)
- 混合精度:W4A16, W8A16
- 2:4 半结构化和非结构化稀疏性
支持的算法
- 简单 PTQ
- GPTQ
- SmoothQuant
- SparseGPT
优化方案
PTQ
执行 PTQ 是为了将可量化权重(例如线性层)的精度降低到较低的位宽。支持的格式包括:
W4A16 系列
- 使用 GPTQ 将权重压缩为 4 位。需要校准数据集。
- 在低 QPS 状态下具有更多的权重压缩,可有效加速。
- 建议用于任何 GPU 类型。
W8A8-INT8 系列
- 使用通道量化通过 GPTQ 将权重压缩到 8 位,并使用动态每标记量化将激活压缩到 8 位。需要用于权重量化的校准数据集。激活量化是在 vLLM 上进行推理期间进行的。
- 对于在高 QPS 制度下加速或在 vLLM 上离线服务非常有用。
- 建议用于具有计算能力 <8.9(Ampere、Turing、Volta、Pascal 或更早版本)的 NVIDIA GPU。
W8A8-FP8 系列
- 使用通道量化将权重压缩到 8 位,并使用动态每标记量化将激活压缩到 8 位。不需要校准数据集。激活量化是在 vLLM 上进行推理期间进行的。
- 对于在高 QPS 制度下加速或在 vLLM 上离线服务非常有用。
- 建议用于计算能力为 >=9.0 的 NVIDIA GPU(Hopper 和 Blackwell)。
稀疏化
稀疏化通过将选定的权重值修剪为零,同时在参数子集中保留基本权重来降低模型复杂性。支持的格式包括:
FP8 权重的 2:4 稀疏性,FP8 输入激活
- 使用半结构化稀疏性 (SparseGPT),其中,对于张量中的每四个连续权重,有两个设置为零。使用通道量化将权重压缩到 8 位,并使用动态每个标记量化将激活压缩到 8 位。
- 比 W8A8-fp8 更适合推理,其评估分数博客几乎没有下降。注: 当剩余的非零权重不足以概括原始分布时,小型模型的准确率可能会下降。
- 建议用于计算能力 >=9.0(Hopper 和 Blackwell)。
安装
pip install llmcompressor开始使用
快速测试
使用 GPTQ 和 SmoothQuant 算法对 TinyLlama 进行 8 位权重和激活的量化。模型可以更换为本地或远程 HF 兼容的检查点,并且 recipe 可以更改以针对不同的量化算法或格式。
应用量化
通过选择算法并调用 oneshot API 来应用量化。
from llmcompressor.modifiers.smoothquant import SmoothQuantModifier
from llmcompressor.modifiers.quantization import GPTQModifier
from llmcompressor import oneshot
# 选择量化算法。
# * 应用 SmoothQuant 使激活更容易量化
# * 使用 GPTQ (静态每通道) 将权重量化为 int8
# * 将激活量化为 int8 (动态每个 token)
recipe = [
SmoothQuantModifier(smoothing_strength=0.8),
GPTQModifier(scheme="W8A8", targets="Linear", ignore=["lm_head"]),
]
# 使用内置的 open_platypus 数据集应用量化。
oneshot(
model="TinyLlama/TinyLlama-1.1B-Chat-v1.0",
dataset="open_platypus",
recipe=recipe,
output_dir="TinyLlama-1.1B-Chat-v1.0-INT8",
max_seq_length=2048,
num_calibration_samples=512,
)使用 vLLM 进行推理
由 llmcompressor 创建的检查点可以在 vllm 中加载和运行:
安装:
pip install vllm运行:
from vllm import LLM
model = LLM("TinyLlama-1.1B-Chat-v1.0-INT8")
output = model.generate("我的名字是")使用 HF Accelerate 量化大模型
llmcompressor集成以支持量化大型模型(如 Llama 70B 和 405B),或量化 GPU 资源有限的任何模型。
概述
accelerate是 Hugging Face 生态系统中一个非常有用的库,支持使用大型模型,包括:
- 将参数卸载到 CPU
- 使用管道并行性跨多个 GPU 分片模型
device_map
from transformers import AutoModelForCausalLM
MODEL_ID = "meta-llama/Meta-Llama-3-70B-Instruct"
# device_map="auto" triggers usage of accelerate
# if > 1 GPU, the model will be sharded across the GPUs
# if not enough GPU memory to fit the model, parameters are offloaded to the CPU
model = AutoModelForCausalLM.from_pretrained(
MODEL_ID, device_map="auto", torch_dtype="auto")from llmcompressor.transformers.compression.helpers import calculate_offload_device_map
from transformers import AutoModelForCausalLM
MODEL_ID = "meta-llama/Meta-Llama-3-70B-Instruct"
# Load model, reserving memory in the device map for sequential GPTQ (adjust num_gpus as needed)
device_map = calculate_offload_device_map(MODEL_ID, reserve_for_hessians=True, num_gpus=1)
model = AutoModelForCausalLM.from_pretrained(
MODEL_ID,
device_map=device_map,
torch_dtype="auto",
)实用建议
CPU 卸载和朴素的管道并行性会减慢通过模型的向前传递。因此,需要注意确保所使用的量化方法与卸载方案很好地匹配,因为需要许多前向传递的方法,尽管模型会减慢速度。没有更多 GPU 内存可用,可以考虑将加载模型的精度降低到较低宽度的 dtype。
例子
- CPU 卸载:量化为与单个 GPU 一起使用
- 多 GPU:量化为使用 2 个 GPU 和使用 2 个GPU
安装
pip install llmcompressorCPU 卸载:量化FP8PTQ
export CUDA_VISIBLE_DEVICES=0
python cpu_offloading_fp8.py多 GPU:量化INT8GPTQ
- multi_gpu_int8.py演示如何量化 2 个 A100 上 to 的权重和激活:Llama-70Bint8
export CUDA_VISIBLE_DEVICES=0,1
python multi_gpu_int8.py使用 FP8 量化 Mixtral-8x7B-Instruct-v0.1 模型
快速入门
提供的示例脚本演示了应用量化算法的端到端过程:
python3 mixtral_moe_w8a8_fp8.py创建量化 MoE 模型
此示例利用 和 创建一个 FP8 量化模型。该模型使用数据集进行校准和训练。
可以按照下面的详细步骤作,也可以简单地使用以下命令运行示例脚本:
python mixtral_moe_w8a8_fp8.py步骤 1:选择模型、数据集和配方
在此步骤中,将选择用于量化的基线模型、用于校准的数据集和量化配方。
- 模型:可以从本地目录引用,也可以从 Hugging Face Hub 检索。
- 数据集:也可以来自本地目录或 Hugging Face Hub。
- 配方:这些是 YAML 文件或 Python 修饰符对象,用于描述在训练期间或训练后应如何优化模型。在此示例中,使用 scheme 设置为QuantizationModifierFP8 的对象。
from llmcompressor.modifiers.quantization import QuantizationModifier
recipe = QuantizationModifier(scheme="FP8", targets="Linear", ignore=["lm_head", "re:.*block_sparse_moe.gate"])第 2 步:使用 Oneshot 运行量化
该方法将所选配方应用于模型和数据集,而无需进行任何微调。模型将被稀疏化并保存到
oneshotMixtral-8x7B-Instruct-v0.1-FP8。
from llmcompressor import oneshot
output_dir = "Mixtral-8x7B-Instruct-v0.1-FP8"
oneshot(
model=model,
dataset=dataset,
recipe=recipe,
save_compressed=True,
output_dir=output_dir,
max_seq_length=2048,
num_calibration_samples=512,
)自定义量化
使用config_groups :
# Example of defining a custom quantization scheme
from llmcompressor.modifiers.quantization.gptq import GPTQModifier
config_groups = {
"group_0": {
"targets": ["Linear"],
"input_activations": None,
"output_activations": None,
"weights": {
"num_bits": 8,
"type": "int",
"symmetric": true,
"strategy": "group",
"group_size": 128,
}
}
}
recipe = GPTQModifier(config_groups=config_groups)相关推荐
- Python入门学习记录之一:变量_python怎么用变量
-
写这个,主要是对自己学习python知识的一个总结,也是加深自己的印象。变量(英文:variable),也叫标识符。在python中,变量的命名规则有以下三点:>变量名只能包含字母、数字和下划线...
- python变量命名规则——来自小白的总结
-
python是一个动态编译类编程语言,所以程序在运行前不需要如C语言的先行编译动作,因此也只有在程序运行过程中才能发现程序的问题。基于此,python的变量就有一定的命名规范。python作为当前热门...
- Python入门学习教程:第 2 章 变量与数据类型
-
2.1什么是变量?在编程中,变量就像一个存放数据的容器,它可以存储各种信息,并且这些信息可以被读取和修改。想象一下,变量就如同我们生活中的盒子,你可以把东西放进去,也可以随时拿出来看看,甚至可以换成...
- 绘制学术论文中的“三线表”具体指导
-
在科研过程中,大家用到最多的可能就是“三线表”。“三线表”,一般主要由三条横线构成,当然在变量名栏里也可以拆分单元格,出现更多的线。更重要的是,“三线表”也是一种数据记录规范,以“三线表”形式记录的数...
- Python基础语法知识--变量和数据类型
-
学习Python中的变量和数据类型至关重要,因为它们构成了Python编程的基石。以下是帮助您了解Python中的变量和数据类型的分步指南:1.变量:变量在Python中用于存储数据值。它们充...
- 一文搞懂 Python 中的所有标点符号
-
反引号`无任何作用。传说Python3中它被移除是因为和单引号字符'太相似。波浪号~(按位取反符号)~被称为取反或补码运算符。它放在我们想要取反的对象前面。如果放在一个整数n...
- Python变量类型和运算符_python中变量的含义
-
别再被小名词坑哭了:Python新手常犯的那些隐蔽错误,我用同事的真实bug拆给你看我记得有一次和同事张姐一起追查一个看似随机崩溃的脚本,最后发现罪魁祸首竟然是她把变量命名成了list。说实话...
- 从零开始:深入剖析 Spring Boot3 中配置文件的加载顺序
-
在当今的互联网软件开发领域,SpringBoot无疑是最为热门和广泛应用的框架之一。它以其强大的功能、便捷的开发体验,极大地提升了开发效率,成为众多开发者构建Web应用程序的首选。而在Spr...
- Python中下划线 ‘_’ 的用法,你知道几种
-
Python中下划线()是一个有特殊含义和用途的符号,它可以用来表示以下几种情况:1在解释器中,下划线(_)表示上一个表达式的值,可以用来进行快速计算或测试。例如:>>>2+...
- 解锁Shell编程:变量_shell $变量
-
引言:开启Shell编程大门Shell作为用户与Linux内核之间的桥梁,为我们提供了强大的命令行交互方式。它不仅能执行简单的文件操作、进程管理,还能通过编写脚本实现复杂的自动化任务。无论是...
- 一文学会Python的变量命名规则!_python的变量命名有哪些要求
-
目录1.变量的命名原则3.内置函数尽量不要做变量4.删除变量和垃圾回收机制5.结语1.变量的命名原则①由英文字母、_(下划线)、或中文开头②变量名称只能由英文字母、数字、下画线或中文字所组成。③英文字...
- 更可靠的Rust-语法篇-区分语句/表达式,略览if/loop/while/for
-
src/main.rs://函数定义fnadd(a:i32,b:i32)->i32{a+b//末尾表达式}fnmain(){leta:i3...
- C++第五课:变量的命名规则_c++中变量的命名规则
-
变量的命名不是想怎么起就怎么起的,而是有一套固定的规则的。具体规则:1.名字要合法:变量名必须是由字母、数字或下划线组成。例如:a,a1,a_1。2.开头不能是数字。例如:可以a1,但不能起1a。3....
- Rust编程-核心篇-不安全编程_rust安全性
-
Unsafe的必要性Rust的所有权系统和类型系统为我们提供了强大的安全保障,但在某些情况下,我们需要突破这些限制来:与C代码交互实现底层系统编程优化性能关键代码实现某些编译器无法验证的安全操作Rus...
- 探秘 Python 内存管理:背后的神奇机制
-
在编程的世界里,内存管理就如同幕后的精密操控者,确保程序的高效运行。Python作为一种广泛使用的编程语言,其内存管理机制既巧妙又复杂,为开发者们提供了便利的同时,也展现了强大的底层控制能力。一、P...
- 一周热门
- 最近发表
- 标签列表
-
- HTML 教程 (33)
- HTML 简介 (35)
- HTML 实例/测验 (32)
- HTML 测验 (32)
- JavaScript 和 HTML DOM 参考手册 (32)
- HTML 拓展阅读 (30)
- HTML文本框样式 (31)
- HTML滚动条样式 (34)
- HTML5 浏览器支持 (33)
- HTML5 新元素 (33)
- HTML5 WebSocket (30)
- HTML5 代码规范 (32)
- HTML5 标签 (717)
- HTML5 标签 (已废弃) (75)
- HTML5电子书 (32)
- HTML5开发工具 (34)
- HTML5小游戏源码 (34)
- HTML5模板下载 (30)
- HTTP 状态消息 (33)
- HTTP 方法:GET 对比 POST (33)
- 键盘快捷键 (35)
- 标签 (226)
- opacity 属性 (32)
- transition 属性 (33)
- 1-1. 变量声明 (31)
