mirror of
https://github.com/open-compass/opencompass.git
synced 2025-05-30 16:03:24 +08:00
[Update] MUSR dataset config prefix update (#1692)
This commit is contained in:
parent
e9e4b69ddb
commit
40a9f0be0d
@ -2,7 +2,7 @@ from mmengine.config import read_base
|
|||||||
import os.path as osp
|
import os.path as osp
|
||||||
|
|
||||||
with read_base():
|
with read_base():
|
||||||
from opencompass.configs.datasets.musr.musr_gen import musr_datasets
|
from opencompass.configs.datasets.musr.musr_gen_3c6e15 import musr_datasets
|
||||||
# from opencompass.configs.models.hf_internlm.hf_internlm2_5_1_8b_chat import models
|
# from opencompass.configs.models.hf_internlm.hf_internlm2_5_1_8b_chat import models
|
||||||
from opencompass.configs.models.hf_internlm.lmdeploy_internlm2_5_7b_chat import (
|
from opencompass.configs.models.hf_internlm.lmdeploy_internlm2_5_7b_chat import (
|
||||||
models as lmdeploy_internlm2_5_7b_chat_model,
|
models as lmdeploy_internlm2_5_7b_chat_model,
|
||||||
|
@ -1,135 +1,4 @@
|
|||||||
from opencompass.datasets import MusrDataset, MusrEvaluator
|
from mmengine.config import read_base
|
||||||
from opencompass.openicl import PromptTemplate, ZeroRetriever, GenInferencer
|
|
||||||
|
|
||||||
|
with read_base():
|
||||||
DATASET_CONFIGS = {
|
from .musr_gen_3c6e15 import musr_datasets # noqa: F401, F403
|
||||||
'murder_mysteries': {
|
|
||||||
'abbr': 'musr_murder_mysteries',
|
|
||||||
'name': 'murder_mysteries',
|
|
||||||
'path': 'opencompass/musr',
|
|
||||||
'reader_cfg': dict(
|
|
||||||
input_columns=['context', 'question_text', 'question', 'answer', 'choices', 'choices_str', 'intermediate_trees', 'intermediate_data', 'prompt', 'system_prompt', 'gold_answer', 'scidx', 'self_consistency_n', 'ablation_name'],
|
|
||||||
output_column='gold_answer',
|
|
||||||
),
|
|
||||||
'infer_cfg': dict(
|
|
||||||
prompt_template=dict(
|
|
||||||
type=PromptTemplate,
|
|
||||||
template=dict(
|
|
||||||
begin=[
|
|
||||||
dict(
|
|
||||||
role='SYSTEM',
|
|
||||||
fallback_role='HUMAN',
|
|
||||||
prompt='{system_prompt}'
|
|
||||||
)
|
|
||||||
],
|
|
||||||
round=[
|
|
||||||
dict(
|
|
||||||
role='HUMAN',
|
|
||||||
prompt='{prompt}'
|
|
||||||
),
|
|
||||||
]
|
|
||||||
),
|
|
||||||
),
|
|
||||||
retriever=dict(type=ZeroRetriever),
|
|
||||||
inferencer=dict(type=GenInferencer, max_out_len=512),
|
|
||||||
),
|
|
||||||
'eval_cfg': dict(
|
|
||||||
evaluator=dict(
|
|
||||||
type=MusrEvaluator,
|
|
||||||
answer_index_modifier=1,
|
|
||||||
self_consistency_n=1
|
|
||||||
),
|
|
||||||
),
|
|
||||||
},
|
|
||||||
'object_placements': {
|
|
||||||
'abbr': 'musr_object_placements',
|
|
||||||
'name': 'object_placements',
|
|
||||||
'path': 'opencompass/musr',
|
|
||||||
'reader_cfg': dict(
|
|
||||||
input_columns=['context', 'question_text', 'question', 'answer', 'choices', 'choices_str', 'intermediate_trees', 'intermediate_data', 'prompt', 'system_prompt', 'gold_answer', 'scidx', 'self_consistency_n', 'ablation_name'],
|
|
||||||
output_column='gold_answer',
|
|
||||||
),
|
|
||||||
'infer_cfg': dict(
|
|
||||||
prompt_template=dict(
|
|
||||||
type=PromptTemplate,
|
|
||||||
template=dict(
|
|
||||||
begin=[
|
|
||||||
dict(
|
|
||||||
role='SYSTEM',
|
|
||||||
fallback_role='HUMAN',
|
|
||||||
prompt='{system_prompt}'
|
|
||||||
)
|
|
||||||
],
|
|
||||||
round=[
|
|
||||||
dict(
|
|
||||||
role='HUMAN',
|
|
||||||
prompt='{prompt}'
|
|
||||||
),
|
|
||||||
]
|
|
||||||
),
|
|
||||||
),
|
|
||||||
retriever=dict(type=ZeroRetriever),
|
|
||||||
inferencer=dict(type=GenInferencer, max_out_len=512),
|
|
||||||
),
|
|
||||||
'eval_cfg': dict(
|
|
||||||
evaluator=dict(
|
|
||||||
type=MusrEvaluator,
|
|
||||||
answer_index_modifier=1,
|
|
||||||
self_consistency_n=1
|
|
||||||
),
|
|
||||||
),
|
|
||||||
},
|
|
||||||
'team_allocation': {
|
|
||||||
'abbr': 'musr_team_allocation',
|
|
||||||
'name': 'team_allocation',
|
|
||||||
'path': 'opencompass/musr',
|
|
||||||
'reader_cfg': dict(
|
|
||||||
input_columns=['context', 'question_text', 'question', 'answer', 'choices', 'choices_str', 'intermediate_trees', 'intermediate_data', 'prompt', 'system_prompt', 'gold_answer', 'scidx', 'self_consistency_n', 'ablation_name'],
|
|
||||||
output_column='gold_answer',
|
|
||||||
),
|
|
||||||
'infer_cfg': dict(
|
|
||||||
prompt_template=dict(
|
|
||||||
type=PromptTemplate,
|
|
||||||
template=dict(
|
|
||||||
begin=[
|
|
||||||
dict(
|
|
||||||
role='SYSTEM',
|
|
||||||
fallback_role='HUMAN',
|
|
||||||
prompt='{system_prompt}'
|
|
||||||
)
|
|
||||||
],
|
|
||||||
round=[
|
|
||||||
dict(
|
|
||||||
role='HUMAN',
|
|
||||||
prompt='{prompt}'
|
|
||||||
),
|
|
||||||
]
|
|
||||||
),
|
|
||||||
),
|
|
||||||
retriever=dict(type=ZeroRetriever),
|
|
||||||
inferencer=dict(type=GenInferencer, max_out_len=512),
|
|
||||||
),
|
|
||||||
'eval_cfg': dict(
|
|
||||||
evaluator=dict(
|
|
||||||
type=MusrEvaluator,
|
|
||||||
answer_index_modifier=1,
|
|
||||||
self_consistency_n=1
|
|
||||||
),
|
|
||||||
),
|
|
||||||
},
|
|
||||||
}
|
|
||||||
|
|
||||||
|
|
||||||
musr_datasets = []
|
|
||||||
|
|
||||||
for config in DATASET_CONFIGS.values():
|
|
||||||
dataset = dict(
|
|
||||||
abbr=config['abbr'],
|
|
||||||
type=MusrDataset,
|
|
||||||
path=config['path'],
|
|
||||||
name=config['name'],
|
|
||||||
reader_cfg=config['reader_cfg'],
|
|
||||||
infer_cfg=config['infer_cfg'],
|
|
||||||
eval_cfg=config['eval_cfg'],
|
|
||||||
)
|
|
||||||
musr_datasets.append(dataset)
|
|
135
opencompass/configs/datasets/musr/musr_gen_3c6e15.py
Normal file
135
opencompass/configs/datasets/musr/musr_gen_3c6e15.py
Normal file
@ -0,0 +1,135 @@
|
|||||||
|
from opencompass.datasets import MusrDataset, MusrEvaluator
|
||||||
|
from opencompass.openicl import PromptTemplate, ZeroRetriever, GenInferencer
|
||||||
|
|
||||||
|
|
||||||
|
DATASET_CONFIGS = {
|
||||||
|
'murder_mysteries': {
|
||||||
|
'abbr': 'musr_murder_mysteries',
|
||||||
|
'name': 'murder_mysteries',
|
||||||
|
'path': 'opencompass/musr',
|
||||||
|
'reader_cfg': dict(
|
||||||
|
input_columns=['context', 'question_text', 'question', 'answer', 'choices', 'choices_str', 'intermediate_trees', 'intermediate_data', 'prompt', 'system_prompt', 'gold_answer', 'scidx', 'self_consistency_n', 'ablation_name'],
|
||||||
|
output_column='gold_answer',
|
||||||
|
),
|
||||||
|
'infer_cfg': dict(
|
||||||
|
prompt_template=dict(
|
||||||
|
type=PromptTemplate,
|
||||||
|
template=dict(
|
||||||
|
begin=[
|
||||||
|
dict(
|
||||||
|
role='SYSTEM',
|
||||||
|
fallback_role='HUMAN',
|
||||||
|
prompt='{system_prompt}'
|
||||||
|
)
|
||||||
|
],
|
||||||
|
round=[
|
||||||
|
dict(
|
||||||
|
role='HUMAN',
|
||||||
|
prompt='{prompt}'
|
||||||
|
),
|
||||||
|
]
|
||||||
|
),
|
||||||
|
),
|
||||||
|
retriever=dict(type=ZeroRetriever),
|
||||||
|
inferencer=dict(type=GenInferencer, max_out_len=512),
|
||||||
|
),
|
||||||
|
'eval_cfg': dict(
|
||||||
|
evaluator=dict(
|
||||||
|
type=MusrEvaluator,
|
||||||
|
answer_index_modifier=1,
|
||||||
|
self_consistency_n=1
|
||||||
|
),
|
||||||
|
),
|
||||||
|
},
|
||||||
|
'object_placements': {
|
||||||
|
'abbr': 'musr_object_placements',
|
||||||
|
'name': 'object_placements',
|
||||||
|
'path': 'opencompass/musr',
|
||||||
|
'reader_cfg': dict(
|
||||||
|
input_columns=['context', 'question_text', 'question', 'answer', 'choices', 'choices_str', 'intermediate_trees', 'intermediate_data', 'prompt', 'system_prompt', 'gold_answer', 'scidx', 'self_consistency_n', 'ablation_name'],
|
||||||
|
output_column='gold_answer',
|
||||||
|
),
|
||||||
|
'infer_cfg': dict(
|
||||||
|
prompt_template=dict(
|
||||||
|
type=PromptTemplate,
|
||||||
|
template=dict(
|
||||||
|
begin=[
|
||||||
|
dict(
|
||||||
|
role='SYSTEM',
|
||||||
|
fallback_role='HUMAN',
|
||||||
|
prompt='{system_prompt}'
|
||||||
|
)
|
||||||
|
],
|
||||||
|
round=[
|
||||||
|
dict(
|
||||||
|
role='HUMAN',
|
||||||
|
prompt='{prompt}'
|
||||||
|
),
|
||||||
|
]
|
||||||
|
),
|
||||||
|
),
|
||||||
|
retriever=dict(type=ZeroRetriever),
|
||||||
|
inferencer=dict(type=GenInferencer, max_out_len=512),
|
||||||
|
),
|
||||||
|
'eval_cfg': dict(
|
||||||
|
evaluator=dict(
|
||||||
|
type=MusrEvaluator,
|
||||||
|
answer_index_modifier=1,
|
||||||
|
self_consistency_n=1
|
||||||
|
),
|
||||||
|
),
|
||||||
|
},
|
||||||
|
'team_allocation': {
|
||||||
|
'abbr': 'musr_team_allocation',
|
||||||
|
'name': 'team_allocation',
|
||||||
|
'path': 'opencompass/musr',
|
||||||
|
'reader_cfg': dict(
|
||||||
|
input_columns=['context', 'question_text', 'question', 'answer', 'choices', 'choices_str', 'intermediate_trees', 'intermediate_data', 'prompt', 'system_prompt', 'gold_answer', 'scidx', 'self_consistency_n', 'ablation_name'],
|
||||||
|
output_column='gold_answer',
|
||||||
|
),
|
||||||
|
'infer_cfg': dict(
|
||||||
|
prompt_template=dict(
|
||||||
|
type=PromptTemplate,
|
||||||
|
template=dict(
|
||||||
|
begin=[
|
||||||
|
dict(
|
||||||
|
role='SYSTEM',
|
||||||
|
fallback_role='HUMAN',
|
||||||
|
prompt='{system_prompt}'
|
||||||
|
)
|
||||||
|
],
|
||||||
|
round=[
|
||||||
|
dict(
|
||||||
|
role='HUMAN',
|
||||||
|
prompt='{prompt}'
|
||||||
|
),
|
||||||
|
]
|
||||||
|
),
|
||||||
|
),
|
||||||
|
retriever=dict(type=ZeroRetriever),
|
||||||
|
inferencer=dict(type=GenInferencer, max_out_len=512),
|
||||||
|
),
|
||||||
|
'eval_cfg': dict(
|
||||||
|
evaluator=dict(
|
||||||
|
type=MusrEvaluator,
|
||||||
|
answer_index_modifier=1,
|
||||||
|
self_consistency_n=1
|
||||||
|
),
|
||||||
|
),
|
||||||
|
},
|
||||||
|
}
|
||||||
|
|
||||||
|
|
||||||
|
musr_datasets = []
|
||||||
|
|
||||||
|
for config in DATASET_CONFIGS.values():
|
||||||
|
dataset = dict(
|
||||||
|
abbr=config['abbr'],
|
||||||
|
type=MusrDataset,
|
||||||
|
path=config['path'],
|
||||||
|
name=config['name'],
|
||||||
|
reader_cfg=config['reader_cfg'],
|
||||||
|
infer_cfg=config['infer_cfg'],
|
||||||
|
eval_cfg=config['eval_cfg'],
|
||||||
|
)
|
||||||
|
musr_datasets.append(dataset)
|
Loading…
Reference in New Issue
Block a user