OpenCompass/docs/zh_cn/get_started.md
2023-09-11 10:58:17 +08:00

15 KiB
Raw Blame History

安装

  1. 准备 OpenCompass 运行环境:

    conda create --name opencompass python=3.10 pytorch torchvision pytorch-cuda -c nvidia -c pytorch -y
    conda activate opencompass
    

    如果你希望自定义 PyTorch 版本或相关的 CUDA 版本,请参考 官方文档 准备 PyTorch 环境。需要注意的是OpenCompass 要求 pytorch>=1.13

  2. 安装 OpenCompass

    git clone https://github.com/open-compass/opencompass.git
    cd opencompass
    pip install -e .
    
  3. 安装 humaneval可选

    如果你需要在 humaneval 数据集上评估模型代码能力,请执行此步骤,否则忽略这一步。

    点击查看详细
    git clone https://github.com/openai/human-eval.git
    cd human-eval
    pip install -r requirements.txt
    pip install -e .
    cd ..
    

    请仔细阅读 human_eval/execution.py 第48-57行的注释,了解执行模型生成的代码可能存在的风险,如果接受这些风险,请取消第58行的注释,启用代码执行评测。

  4. 安装 Llama可选

    如果你需要使用官方实现评测 Llama / Llama-2 / Llama-2-chat 模型,请执行此步骤,否则忽略这一步。

    点击查看详细
    git clone https://github.com/facebookresearch/llama.git
    cd llama
    pip install -r requirements.txt
    pip install -e .
    cd ..
    

    你可以在 configs/models 下找到所有 Llama / Llama-2 / Llama-2-chat 模型的配置文件示例。(示例)

数据集准备

OpenCompass 支持的数据集主要包括两个部分:

  1. Huggingface 数据集: Huggingface Dataset 提供了大量的数据集,这部分数据集运行时会自动下载

  2. 自建以及第三方数据集OpenCompass 还提供了一些第三方数据集及自建中文数据集。运行以下命令手动下载解压

在 OpenCompass 项目根目录下运行下面命令,将数据集准备至 ${OpenCompass}/data 目录下:

wget https://github.com/open-compass/opencompass/releases/download/0.1.1/OpenCompassData.zip
unzip OpenCompassData.zip

OpenCompass 已经支持了大多数常用于性能比较的数据集,具体支持的数据集列表请直接在 configs/datasets 下进行查找。

快速上手

我们会以测试 OPT-125M 以及 OPT-350M 预训练基座模型在 SIQAWinograd 上的性能为例,带领你熟悉 OpenCompass 的一些基本功能。

运行前确保已经安装了 OpenCompass本实验可以在单张 GTX-1660-6G 显卡上成功运行。 更大参数的模型,如 Llama-7B, 可参考 configs 中其他例子。

配置任务

OpenCompass 中,每个评测任务都由待评测的模型和数据集组成,而评测的入口为 run.py。用户可以通过命令行或配置文件的方式去选择待测的模型和数据集。


````{tab} 命令行形式
用户可以通过 `--models` 和 `--datasets` 组合待测试的模型和数据集。

```bash
python run.py --models opt_125m opt_350m --datasets siqa_gen winograd_ppl
```

模型和数据集以配置文件的形式预先存放在 `configs/models` 和 `configs/datasets` 下。用户可以通过 `tools/list_configs.py` 查看或筛选当前可用的模型和数据集配置。

```bash
# 列出所有配置
python tools/list_configs.py
# 列出所有跟 llama 及 mmlu 相关的配置
python tools/list_configs.py llama mmlu
```

部分样例输出如下:

```text
+-----------------+-----------------------------------+
| Model           | Config Path                       |
|-----------------+-----------------------------------|
| hf_llama2_13b   | configs/models/hf_llama2_13b.py   |
| hf_llama2_70b   | configs/models/hf_llama2_70b.py   |
| ...             | ...                               |
+-----------------+-----------------------------------+
+-------------------+---------------------------------------------------+
| Dataset           | Config Path                                       |
|-------------------+---------------------------------------------------|
| cmmlu_gen         | configs/datasets/cmmlu/cmmlu_gen.py               |
| cmmlu_gen_ffe7c0  | configs/datasets/cmmlu/cmmlu_gen_ffe7c0.py        |
| ...               | ...                                               |
+-------------------+---------------------------------------------------+
```

用户可以按照第一列中的名称去作为 `python run.py` 中 `--models` 和 `--datasets` 的传入参数。在数据集部分,相同名称但不同后缀的数据集一般意味着其提示词或评测方式是不一样的。

对于 HuggingFace 模型,用户可以直接通过命令行设定模型参数,而无需额外配置文件。例如,对于 `facebook/opt-125m` 模型,可以通过以下命令进行评测:

```bash
python run.py --datasets siqa_gen winograd_ppl \
--hf-path facebook/opt-125m \
--model-kwargs device_map='auto' \
--tokenizer-kwargs padding_side='left' truncation='left' trust_remote_code=True \
--max-seq-len 2048 \
--max-out-len 100 \
--batch-size 128  \
--num-gpus 1
```

```{tip}
关于 `run.py` 支持的所有 HuggingFace 相关参数,请阅读 [评测任务发起](./user_guides/experimentation.md#评测任务发起)。
```


````

````{tab} 配置形式

除了通过在命令行中对实验进行配置OpenCompass 也支持用户把实验全量配置写入一份配置文件中,并直接通过 `run.py` 运行。这样的配置方式允许用户方便地修改实验参数,对实验进行更灵活的配置,也让运行命令更为简洁。配置文件以 Python 格式组织,且必须包含 `datasets` 和 `models` 字段。

本次的测试的配置文件为 [configs/eval_demo.py](/configs/eval_demo.py)。该配置通过[继承机制](./user_guides/config.md#继承机制)引入了所需的数据集和模型配置,并按照格式组合了 `datasets` 和 `models` 字段。

```python
from mmengine.config import read_base

with read_base():
    from .datasets.siqa.siqa_gen import siqa_datasets
    from .datasets.winograd.winograd_ppl import winograd_datasets
    from .models.opt.hf_opt_125m import opt125m
    from .models.opt.hf_opt_350m import opt350m

datasets = [*siqa_datasets, *winograd_datasets]
models = [opt125m, opt350m]

```

在运行任务时,我们只需要往 `run.py` 传入配置文件的路径即可:

```bash
python run.py configs/eval_demo.py
```

````

配置文件评测方式较为简洁,下文将以该方式为例讲解其余功能。

运行评测

由于 OpenCompass 默认使用并行的方式进行评测,为了便于及时发现问题,我们可以在首次启动时使用 debug 模式运行,该模式会将任务串行执行,并会实时输出任务的执行进度。

python run.py configs/eval_demo.py -w outputs/demo --debug

如果一切正常,屏幕上会出现 "Starting inference process"

Loading cached processed dataset at .cache/huggingface/datasets/social_i_qa/default/0.1.0/674d85e42ac7430d3dcd4de7007feaffcb1527c535121e09bab2803fbcc925f8/cache-742512eab30e8c9c.arrow
[2023-07-12 18:23:55,076] [opencompass.openicl.icl_inferencer.icl_gen_inferencer] [INFO] Starting inference process...

此时可以使用 ctrl+c 中断 debug 模式的执行,并运行以下命令进行并行评测:

python run.py configs/eval_demo.py -w outputs/demo

运行 demo 期间,我们来介绍一下本案例中的配置内容以及启动选项。

配置详解

模型列表 models

OpenCompass 在 configs/models 下提供了一系列预定义好的模型配置。下面为 opt-350m (configs/models/hf_opt_350m.py) 相关的配置片段:

# 提供直接使用 HuggingFaceCausalLM 模型的接口
from opencompass.models import HuggingFaceCausalLM

# OPT-350M
opt350m = dict(
       type=HuggingFaceCausalLM,
       # 以下参数为 HuggingFaceCausalLM 相关的初始化参数
       path='facebook/opt-350m',  # HuggingFace 模型地址
       tokenizer_path='facebook/opt-350m',
       tokenizer_kwargs=dict(
           padding_side='left',
           truncation_side='left',
           trust_remote_code=True),
       model_kwargs=dict(device_map='auto'),  # 构造 model 的参数
       # 下列参数为所有模型均需设定的初始化参数,非 HuggingFaceCausalLM 独有
       abbr='opt350m',                    # 模型简称,用于结果展示
       max_seq_len=2048,              # 模型能接受的最大序列长度
       max_out_len=100,                   # 最长生成 token 数
       batch_size=64,                     # 批次大小
       run_cfg=dict(num_gpus=1),          # 运行模型所需的gpu数
    )

在使用配置时,我们可以通过在命令行参数中使用 --models 指定相关文件,也可以通过继承机制在实验配置文件中导入模型配置,并加入到 models 列表中。

如果你想要测试的 HuggingFace 模型不在其中,也可以在命令行中直接指定相关参数。

python run.py \
--hf-path facebook/opt-350m \  # HuggingFace 模型地址
--tokenizer-path facebook/opt-350m \  # HuggingFace tokenizer 地址(如与模型地址相同,可省略)
--tokenizer-kwargs padding_side='left' truncation='left' trust_remote_code=True \  # 构造 tokenizer 的参数
--model-kwargs device_map='auto' \  # 构造 model 的参数
--max-seq-len 2048 \  # 模型能接受的最大序列长度
--max-out-len 100 \  # 最长生成 token 数
--batch-size 64  \  # 批次大小
--num-gpus 1  # 运行模型所需的gpu数

HuggingFace 中的 'facebook/opt-350m' 以及 'facebook/opt-125m' 权重会在运行时自动下载。

如果需要了解更多参数的说明,或 API 模型及自定义模型的测试,可阅读 [准备模型](./user_guides/models.md)。

数据集列表 datasets

与模型类似,数据集的配置文件都提供在 configs/datasets 下,用户可以在命令行中通过 --datasets ,或在配置文件中通过继承导入相关配置。

以下为 configs/eval_demo.py 中与数据集相关的配置片段:

from mmengine.config import read_base  # 使用 mmengine.read_base() 读取基础配置

with read_base():
    # 直接从预设数据集配置中读取需要的数据集配置
    from .datasets.winograd.winograd_ppl import winograd_datasets  # 读取 Winograd 的配置,基于 PPL (perplexity) 进行评测
    from .datasets.siqa.siqa_gen import siqa_datasets  # 读取 SIQA 的配置,基于生成式进行评测

datasets = [*siqa_datasets, *winograd_datasets]       # 最后 config 需要包含所需的评测数据集列表 datasets

数据集的配置通常为 'ppl' 和 'gen' 两类配置文件,表示使用的评估方式。其中 ppl 表示使用判别式评测, gen 表示使用生成式评测。

此外,configs/datasets/collections 存放了各类数据集集合方便做综合评测。OpenCompass 常用 base_medium.py 对模型进行全量测试。若需要复现结果,直接导入该文件即可。如:

python run.py --models hf_llama_7b --datasets base_medium
更多介绍可查看 [数据集配置](./user_guides/dataset_prepare.md)。

启动评测

配置文件准备完毕后,我们可以使用 debug 模式启动任务,以检查模型加载、数据集读取是否出现异常,如未正确读取缓存等。

python run.py configs/eval_demo.py -w outputs/demo --debug

--debug 模式下只能逐一序列执行任务,因此检查无误后,可关闭 --debug 模式,使程序充分利用多卡资源

python run.py configs/eval_demo.py -w outputs/demo

以下是一些与评测相关的参数,可以帮助你根据自己的环境情况配置更高效的推理任务。

  • -w outputs/demo: 评测日志及结果保存目录。若不指定,则默认为 outputs/default
  • -r: 重启上一次(中断的)评测
  • --mode all: 指定进行某一阶段的任务
    • all: 进行全阶段评测,包括推理和评估
    • infer: 仅进行各个数据集上的推理
    • eval: 仅基于推理结果进行评估
    • viz: 仅展示评估结果
  • --max-partition-size 2000: 数据集拆分尺寸,部分数据集可能比较大,利用此参数将其拆分成多个子任务,能有效利用资源。但如果拆分过细,则可能因为模型本身加载时间过长,反而速度更慢
  • --max-num-workers 32: 最大并行启动任务数,在 Slurm 等分布式环境中,该参数用于指定最大提交任务数;在本地环境中,该参数用于指定最大并行执行的任务数,注意实际并行执行任务数受制于 GPU 等资源数,并不一定为该数字。

如果你不是在本机进行评测,而是使用 slurm 集群,可以指定如下参数:

  • --slurm: 使用 slurm 在集群提交任务
  • --partition(-p) my_part: slurm 集群分区
  • --retry 2: 任务出错重试次数
这个脚本同样支持将任务提交到阿里云深度学习中心DLC上运行以及更多定制化的评测策略。请参考 [评测任务发起](./user_guides/experimentation.md#评测任务发起) 了解更多细节。

评测结果

评测完成后,会打印评测结果表格如下:

dataset    version    metric    mode      opt350m    opt125m
---------  ---------  --------  ------  ---------  ---------
siqa       e78df3     accuracy  gen         21.55      12.44
winograd   b6c7ed     accuracy  ppl         51.23      49.82

所有过程的日志,预测,以及最终结果会放在 outputs/demo/ 目录下。目录结构如下所示:

outputs/default/
├── 20200220_120000
├── 20230220_183030   # 一次实验
│   ├── configs       # 每次实验都会在此处存下用于追溯的 config
│   ├── logs          # 运行日志
│   │   ├── eval
│   │   └── infer
│   ├── predictions   # 储存了每个任务的推理结果
│   ├── results       # 储存了每个任务的评测结果
│   └── summary       # 汇总每次实验的所有评测结果
├── ...

打印评测结果的过程可被进一步定制化,用于输出一些数据集的平均分 (例如 MMLU, C-Eval 等)。

关于评测结果输出的更多介绍可阅读 结果展示

更多教程

想要更多了解 OpenCompass, 可以点击下列链接学习。