This website works better with JavaScript
Главная
Обзор
Помощь
Вход
radu
/
LLamaRecipes
зеркало из
https://github.com/facebookresearch/llama-recipes.git
Следить
1
В избранное
0
Ответвить
0
Файлы
Обсуждения
0
Вики
Просмотр исходного кода
Stop tracking files in eval_results/meta-llama__Llama-3.3-70B-Instruct
Justin Lee
2 месяцев назад
Родитель
e1d64ca2f4
Сommit
d214437e3e
9 измененных файлов
с
0 добавлено
и
1130 удалено
Разделённый вид
Показать статистику Diff
0
146
end-to-end-use-cases/benchmarks/llm_eval_harness/meta_eval/eval_results/meta-llama__Llama-3.3-70B-Instruct/results_2025-01-29T15-55-53.258125.json
0
146
end-to-end-use-cases/benchmarks/llm_eval_harness/meta_eval/eval_results/meta-llama__Llama-3.3-70B-Instruct/results_2025-01-29T17-23-38.595883.json
0
146
end-to-end-use-cases/benchmarks/llm_eval_harness/meta_eval/eval_results/meta-llama__Llama-3.3-70B-Instruct/results_2025-01-29T17-25-46.847749.json
0
146
end-to-end-use-cases/benchmarks/llm_eval_harness/meta_eval/eval_results/meta-llama__Llama-3.3-70B-Instruct/results_2025-01-29T18-00-51.939054.json
0
146
end-to-end-use-cases/benchmarks/llm_eval_harness/meta_eval/eval_results/meta-llama__Llama-3.3-70B-Instruct/results_2025-01-29T19-33-04.565938.json
0
100
end-to-end-use-cases/benchmarks/llm_eval_harness/meta_eval/eval_results/meta-llama__Llama-3.3-70B-Instruct/samples_meta_mmlu_pro_instruct_2025-01-29T17-23-38.595883.jsonl
0
100
end-to-end-use-cases/benchmarks/llm_eval_harness/meta_eval/eval_results/meta-llama__Llama-3.3-70B-Instruct/samples_meta_mmlu_pro_instruct_2025-01-29T17-25-46.847749.jsonl
0
100
end-to-end-use-cases/benchmarks/llm_eval_harness/meta_eval/eval_results/meta-llama__Llama-3.3-70B-Instruct/samples_meta_mmlu_pro_instruct_2025-01-29T18-00-51.939054.jsonl
0
100
end-to-end-use-cases/benchmarks/llm_eval_harness/meta_eval/eval_results/meta-llama__Llama-3.3-70B-Instruct/samples_meta_mmlu_pro_instruct_2025-01-29T19-33-04.565938.jsonl
Разница между файлами не показана из-за своего большого размера
+ 0
- 146
end-to-end-use-cases/benchmarks/llm_eval_harness/meta_eval/eval_results/meta-llama__Llama-3.3-70B-Instruct/results_2025-01-29T15-55-53.258125.json
Разница между файлами не показана из-за своего большого размера
+ 0
- 146
end-to-end-use-cases/benchmarks/llm_eval_harness/meta_eval/eval_results/meta-llama__Llama-3.3-70B-Instruct/results_2025-01-29T17-23-38.595883.json
Разница между файлами не показана из-за своего большого размера
+ 0
- 146
end-to-end-use-cases/benchmarks/llm_eval_harness/meta_eval/eval_results/meta-llama__Llama-3.3-70B-Instruct/results_2025-01-29T17-25-46.847749.json
Разница между файлами не показана из-за своего большого размера
+ 0
- 146
end-to-end-use-cases/benchmarks/llm_eval_harness/meta_eval/eval_results/meta-llama__Llama-3.3-70B-Instruct/results_2025-01-29T18-00-51.939054.json
Разница между файлами не показана из-за своего большого размера
+ 0
- 146
end-to-end-use-cases/benchmarks/llm_eval_harness/meta_eval/eval_results/meta-llama__Llama-3.3-70B-Instruct/results_2025-01-29T19-33-04.565938.json
Разница между файлами не показана из-за своего большого размера
+ 0
- 100
end-to-end-use-cases/benchmarks/llm_eval_harness/meta_eval/eval_results/meta-llama__Llama-3.3-70B-Instruct/samples_meta_mmlu_pro_instruct_2025-01-29T17-23-38.595883.jsonl
Разница между файлами не показана из-за своего большого размера
+ 0
- 100
end-to-end-use-cases/benchmarks/llm_eval_harness/meta_eval/eval_results/meta-llama__Llama-3.3-70B-Instruct/samples_meta_mmlu_pro_instruct_2025-01-29T17-25-46.847749.jsonl
Разница между файлами не показана из-за своего большого размера
+ 0
- 100
end-to-end-use-cases/benchmarks/llm_eval_harness/meta_eval/eval_results/meta-llama__Llama-3.3-70B-Instruct/samples_meta_mmlu_pro_instruct_2025-01-29T18-00-51.939054.jsonl
Разница между файлами не показана из-за своего большого размера
+ 0
- 100
end-to-end-use-cases/benchmarks/llm_eval_harness/meta_eval/eval_results/meta-llama__Llama-3.3-70B-Instruct/samples_meta_mmlu_pro_instruct_2025-01-29T19-33-04.565938.jsonl