axolotl微调Qwen2–7b开源大模型 AutoGen+Marker自动生成数据集

AI超元域
7 min readJun 14, 2024

--

ollama部署Qwen2

#ollama下载地址https://www.ollama.com/
ollama run qwen2:7b
ollama run qwen2:72b
##为ollama开启公网ipsudo mkdir -p /etc/systemd/system/ollama.service.d/sudo nano /etc/systemd/system/ollama.service.d/override.confsudo nano /etc/systemd/system/ollama.service##输入
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
#然后Ctrl+O 按回车 再按Ctrl+Xsudo systemctl daemon-reloadsudo systemctl restart ollama.service在浏览器访问 <http://64.247.196.27:11434/v1>

vLLM部署Qwen 7b

conda create -n myenv python=3.9 -y
conda activate myenv
pip install vllm
#开启API##通用模型localhost
python -m vllm.entrypoints.openai.api_server --model Qwen/Qwen2-7B --dtype auto --api-key token-abc123
##通用模型公网访问
python -m vllm.entrypoints.openai.api_server --model Qwen/Qwen2-7B --dtype auto --api-key token-abc123 --host 0.0.0.0
##glm-4-9b的公网访问
##需要将 trust_remote_code 选项设置为 True
python -m vllm.entrypoints.openai.api_server --model Qwen/Qwen2-7B --dtype auto --api-key token-abc123 --host 0.0.0.0 --trust-remote-code
#接口信息
{
"model": "Qwen/Qwen2-7B",
"base_url": "<http://64.247.196.36:8000/v1>",
"api_key": "token-abc123",
},

autogen studio 安装和启动

pip install autogenstudio
autogenstudio ui --port 8081 --host 0.0.

colab脚本https://colab.research.google.com/drive/1Vq_4i2AEaYqXVWdLt6HpGL-1hVdfWxQh#scrollTo=at5ei-2J8VZt

pdf处理

https://pypi.org/project/marker-pdf/

pip install marker-pdf 
marker_single GPT.pdf ./folder --batch_multiplier 2 --max_pages 52 --langs English

配置

Axolotl 是一种旨在简化各种 AI 模型微调的工具,为多种配置和架构提供支持。

Python >=3.10 and Pytorch >=2.1.1

# 从 GitHub 克隆 axolotl 仓库
git clone <https://github.com/OpenAccess-AI-Collective/axolotl>
# 切换到 axolotl 目录
cd axolotl
# 将当前用户添加到 docker 组,以便在没有 sudo 的情况下运行 docker 命令
sudo usermod -aG docker $USER
# 更新组信息,使更改生效
newgrp docker
# 运行 axolotl docker 容器,使用所有可用的 GPU,并在退出时自动删除容器
# docker hub <https://hub.docker.com/r/winglian/axolotl/tags>
docker run --gpus '"all"' --rm -it winglian/axolotl:main-latest
# 使用 Accelerate 库启动 axolotl 训练脚本,使用 examples/openllama-3b/qlora.yml 配置文件
accelerate launch -m axolotl.cli.train examples/qwen2/qlora-fsdp.yaml

数据集配置文件:

https://github.com/OpenAccess-AI-Collective/axolotl/blob/main/examples/qwen2/qlora-fsdp.yaml

🔥如有问题请联系我的徽信 stoeng

🔥🔥🔥本项目代码由AI超元域频道制作,观看更多大模型微调视频请访问我的频道⬇

👉👉👉我的哔哩哔哩频道

👉👉👉我的YouTube频道

注意:

配置文件中fp16设为false bfp16设为true

如果数据集内容太少,需要将eval_sample_packing 设置为 False

使用 Nano 在终端编辑 Qlora.yml 训练文件

nano examples/qwen2/qlora-fsdp.yaml
(Ctrl+o) = Save
(Ctrl+x) = Exit

上传至hugging face

pip install huggingface-cli
huggingface-cli loginhuggingface-cli upload leo009/Qwen2-finetuned qlora-out

数据集 https://huggingface.co/datasets/tatsu-lab/alpaca

qlora-fsdp.yaml配置文件

base_model: Qwen/Qwen2-7B
trust_remote_code: true
load_in_8bit: false
load_in_4bit: true
strict: false
datasets:
- path: tatsu-lab/alpaca
type: alpaca
dataset_prepared_path:
val_set_size: 0.05
output_dir: ./outputs/out
sequence_len: 2048
sample_packing: true
eval_sample_packing: true
pad_to_sequence_len: true
adapter: qlora
lora_model_dir:
lora_r: 32
lora_alpha: 64
lora_dropout: 0.05
lora_target_linear: true
lora_fan_in_fan_out:
wandb_project:
wandb_entity:
wandb_watch:
wandb_name:
wandb_log_model:
gradient_accumulation_steps: 8
micro_batch_size: 1
num_epochs: 4
optimizer: adamw_torch
lr_scheduler: cosine
learning_rate: 0.0002
train_on_inputs: false
group_by_length: false
bf16: auto
fp16:
tf32: true
gradient_checkpointing: false
gradient_checkpointing_kwargs:
use_reentrant: false
early_stopping_patience:
resume_from_checkpoint:
local_rank:
logging_steps: 1
xformers_attention:
flash_attention: false
warmup_steps: 10
evals_per_epoch: 4
saves_per_epoch: 1
debug:
deepspeed:
weight_decay: 0.0
special_tokens:

--

--