This website works better with JavaScript
홈
탐색
도움말
로그인
radu
/
LLamaRecipes
의 미러
https://github.com/facebookresearch/llama-recipes.git
Watch
1
Star
0
포크
0
파일
이슈
0
위키
소스 검색
update readme
Kai Wu
1 년 전
부모
a7b449234a
커밋
576e574e31
17개의 변경된 파일
과
26개의 추가작업
그리고
26개의 파일을 삭제
분할 보기
변경상태 보기
2
2
tools/benchmarks/llm_eval_harness/README.md
24
24
tools/benchmarks/llm_eval_harness/meta_eval_reproduce/README.md
0
0
tools/benchmarks/llm_eval_harness/meta_eval/eval_config.yaml
0
0
tools/benchmarks/llm_eval_harness/meta_eval/meta_template/bbh/bbh_3shot_cot.yaml
0
0
tools/benchmarks/llm_eval_harness/meta_eval/meta_template/bbh/utils.py
0
0
tools/benchmarks/llm_eval_harness/meta_eval/meta_template/gpqa_cot/gpqa_0shot_cot.yaml
0
0
tools/benchmarks/llm_eval_harness/meta_eval/meta_template/gpqa_cot/utils.py
0
0
tools/benchmarks/llm_eval_harness/meta_eval/meta_template/ifeval/ifeval.yaml
0
0
tools/benchmarks/llm_eval_harness/meta_eval/meta_template/ifeval/utils.py
0
0
tools/benchmarks/llm_eval_harness/meta_eval/meta_template/math_hard/math_hard_0shot_cot.yaml
0
0
tools/benchmarks/llm_eval_harness/meta_eval/meta_template/math_hard/utils.py
0
0
tools/benchmarks/llm_eval_harness/meta_eval/meta_template/meta_instruct.yaml
0
0
tools/benchmarks/llm_eval_harness/meta_eval/meta_template/meta_pretrain.yaml
0
0
tools/benchmarks/llm_eval_harness/meta_eval/meta_template/mmlu_pro/mmlu_pro_5shot_cot_instruct.yaml
0
0
tools/benchmarks/llm_eval_harness/meta_eval/meta_template/mmlu_pro/mmlu_pro_5shot_cot_pretrain.yaml
0
0
tools/benchmarks/llm_eval_harness/meta_eval/meta_template/mmlu_pro/utils.py
0
0
tools/benchmarks/llm_eval_harness/meta_eval/prepare_meta_eval.py
파일 크기가 너무 크기때문에 변경 상태를 표시하지 않습니다.
+ 2
- 2
tools/benchmarks/llm_eval_harness/README.md
파일 크기가 너무 크기때문에 변경 상태를 표시하지 않습니다.
+ 24
- 24
tools/benchmarks/llm_eval_harness/meta_eval_reproduce/README.md
tools/benchmarks/llm_eval_harness/meta_eval_reproduce/eval_config.yaml → tools/benchmarks/llm_eval_harness/meta_eval/eval_config.yaml
파일 보기
tools/benchmarks/llm_eval_harness/meta_eval_reproduce/meta_template/bbh/bbh_3shot_cot.yaml → tools/benchmarks/llm_eval_harness/meta_eval/meta_template/bbh/bbh_3shot_cot.yaml
파일 보기
tools/benchmarks/llm_eval_harness/meta_eval_reproduce/meta_template/bbh/utils.py → tools/benchmarks/llm_eval_harness/meta_eval/meta_template/bbh/utils.py
파일 보기
tools/benchmarks/llm_eval_harness/meta_eval_reproduce/meta_template/gpqa_cot/gpqa_0shot_cot.yaml → tools/benchmarks/llm_eval_harness/meta_eval/meta_template/gpqa_cot/gpqa_0shot_cot.yaml
파일 보기
tools/benchmarks/llm_eval_harness/meta_eval_reproduce/meta_template/gpqa_cot/utils.py → tools/benchmarks/llm_eval_harness/meta_eval/meta_template/gpqa_cot/utils.py
파일 보기
tools/benchmarks/llm_eval_harness/meta_eval_reproduce/meta_template/ifeval/ifeval.yaml → tools/benchmarks/llm_eval_harness/meta_eval/meta_template/ifeval/ifeval.yaml
파일 보기
tools/benchmarks/llm_eval_harness/meta_eval_reproduce/meta_template/ifeval/utils.py → tools/benchmarks/llm_eval_harness/meta_eval/meta_template/ifeval/utils.py
파일 보기
tools/benchmarks/llm_eval_harness/meta_eval_reproduce/meta_template/math_hard/math_hard_0shot_cot.yaml → tools/benchmarks/llm_eval_harness/meta_eval/meta_template/math_hard/math_hard_0shot_cot.yaml
파일 보기
tools/benchmarks/llm_eval_harness/meta_eval_reproduce/meta_template/math_hard/utils.py → tools/benchmarks/llm_eval_harness/meta_eval/meta_template/math_hard/utils.py
파일 보기
tools/benchmarks/llm_eval_harness/meta_eval_reproduce/meta_template/meta_instruct.yaml → tools/benchmarks/llm_eval_harness/meta_eval/meta_template/meta_instruct.yaml
파일 보기
tools/benchmarks/llm_eval_harness/meta_eval_reproduce/meta_template/meta_pretrain.yaml → tools/benchmarks/llm_eval_harness/meta_eval/meta_template/meta_pretrain.yaml
파일 보기
tools/benchmarks/llm_eval_harness/meta_eval_reproduce/meta_template/mmlu_pro/mmlu_pro_5shot_cot_instruct.yaml → tools/benchmarks/llm_eval_harness/meta_eval/meta_template/mmlu_pro/mmlu_pro_5shot_cot_instruct.yaml
파일 보기
tools/benchmarks/llm_eval_harness/meta_eval_reproduce/meta_template/mmlu_pro/mmlu_pro_5shot_cot_pretrain.yaml → tools/benchmarks/llm_eval_harness/meta_eval/meta_template/mmlu_pro/mmlu_pro_5shot_cot_pretrain.yaml
파일 보기
tools/benchmarks/llm_eval_harness/meta_eval_reproduce/meta_template/mmlu_pro/utils.py → tools/benchmarks/llm_eval_harness/meta_eval/meta_template/mmlu_pro/utils.py
파일 보기
tools/benchmarks/llm_eval_harness/meta_eval_reproduce/prepare_meta_eval.py → tools/benchmarks/llm_eval_harness/meta_eval/prepare_meta_eval.py
파일 보기