快速开始
我们以部署和训练 Panda-13B 为例。
安装
从Github下载我们的代码
$ git clone https://github.com/dandelionsllm/pandallm
在新的环境中安装所需的依赖
$ conda create -n pandallm python=3.10
$ conda activate pandallm
(pandallm) $ pip install -r requirements.txt
(pandallm) $ mkdir pretrained_model
快速部署
从 Huggingface 下载
LlaMA-13B
。从Huggingface下载我们的模型。由于模型文件对于git clone来说太大了,您可以从 这里 手动下载模型文件。
(pandallm) $ mkdir delta-models
(pandallm) $ cd delta-models
(pandallm) $ git clone https://huggingface.co/chitanda/llama-panda-13b-zh-wudao-chat-delta
将下载的文件移动到相应的目录。
(pandallm) $ cd ..
(pandallm) $ mv delta-models/ ./
将
"delta-model"
转换为预训练的模型。请将 ${PATH_TO_YOUR_MODEL} 替换为您想要保存的模型路径。
(pandallm) $ python apply_delta.py --base_model ${PATH_TO_YOUR_MODEL} --target_model ./pretrained_model/panda-13B --delta_model ./delta-models/llama-panda-13b-zh-wudao-chat-delta/checkpoint-3000-delta
运行以下命令部署聊天机器人。
(pandallm) $ python run_chat.py --model_path ./pretrained_model/panda-13B --query "write a peom"
快速训练
在直接使用以下命令训练模型之前,请确保您已经完成了 安装.
准备训练数据。您可以从 这里 下载训练数据。请将数据文件夹放在
./dataset
。运行以下命令来训练模型:
(pandallm) $ PAD_TOKEN="</s>" deepspeed --include localhost:0,1,2,3,4,5,6,7 trainer_base_ds_mul.py -cp conf/llama/zh/ -cn llama_13b_zh_instruct_sft_combine_v1_0_ds
如果您的服务器上少于 \(8\) 个GPUs,您可以将 --include 参数
更改为您拥有的GPUs,例如 "--include localhost:0,1,2,3"
如果您在一个服务器上有 \(4\) GPUS。