快速开始

PandaLLM Github

我们以部署和训练 Panda-13B 为例。

安装

  1. 从Github下载我们的代码

$ git clone https://github.com/dandelionsllm/pandallm
  1. 在新的环境中安装所需的依赖

$ conda create -n pandallm python=3.10
$ conda activate pandallm
(pandallm) $ pip install -r requirements.txt
(pandallm) $ mkdir pretrained_model

快速部署

  1. Huggingface 下载 LlaMA-13B

  2. 从Huggingface下载我们的模型。由于模型文件对于git clone来说太大了,您可以从 这里 手动下载模型文件。

(pandallm) $ mkdir delta-models
(pandallm) $ cd delta-models
(pandallm) $ git clone https://huggingface.co/chitanda/llama-panda-13b-zh-wudao-chat-delta
  1. 将下载的文件移动到相应的目录。

(pandallm) $ cd ..
(pandallm) $ mv delta-models/ ./
  1. "delta-model" 转换为预训练的模型。请将 ${PATH_TO_YOUR_MODEL} 替换为您想要保存的模型路径。

(pandallm) $ python apply_delta.py --base_model ${PATH_TO_YOUR_MODEL} --target_model ./pretrained_model/panda-13B --delta_model ./delta-models/llama-panda-13b-zh-wudao-chat-delta/checkpoint-3000-delta
  1. 运行以下命令部署聊天机器人。

(pandallm) $ python run_chat.py --model_path ./pretrained_model/panda-13B --query "write a peom"

快速训练

在直接使用以下命令训练模型之前,请确保您已经完成了 安装.

  1. 准备训练数据。您可以从 这里 下载训练数据。请将数据文件夹放在 ./dataset

  2. 运行以下命令来训练模型:

(pandallm) $ PAD_TOKEN="</s>" deepspeed --include localhost:0,1,2,3,4,5,6,7  trainer_base_ds_mul.py -cp conf/llama/zh/ -cn llama_13b_zh_instruct_sft_combine_v1_0_ds

如果您的服务器上少于 \(8\) 个GPUs,您可以将 --include 参数 更改为您拥有的GPUs,例如 "--include localhost:0,1,2,3" 如果您在一个服务器上有 \(4\) GPUS。