This website works better with JavaScript
Inicio
Explorar
Axuda
Iniciar sesión
radu
/
LLMCourse
réplica de
https://github.com/mlabonne/llm-course.git
Seguir
1
Destacar
0
Fork
0
Ficheiros
Incidencias
0
Wiki
Explorar o código
remove local notebooks
Maxime Labonne
hai 4 meses
pai
9b9848a2b9
achega
56f74a2895
Modificáronse 9 ficheiros
con
0 adicións
e
24113 borrados
Dividir vista
Mostrar estatísticas de Diff
0
252
4_bit_LLM_Quantization_with_GPTQ.ipynb
0
2885
Decoding_Strategies_in_Large_Language Models.ipynb
0
1555
Fine_tune_LLMs_with_Axolotl.ipynb
0
3349
Fine_tune_Llama_2_in_Google_Colab.ipynb
0
757
Fine_tune_a_Mistral_7b_model_with_DPO.ipynb
0
2822
Introduction_to_Weight_Quantization.ipynb
0
1770
Mergekit.ipynb
0
2218
Quantize_Llama_2_models_using_GGUF_and_llama_cpp.ipynb
0
8505
Quantize_models_with_ExLlamaV2.ipynb
A diferenza do arquivo foi suprimida porque é demasiado grande
+ 0
- 252
4_bit_LLM_Quantization_with_GPTQ.ipynb
A diferenza do arquivo foi suprimida porque é demasiado grande
+ 0
- 2885
Decoding_Strategies_in_Large_Language Models.ipynb
A diferenza do arquivo foi suprimida porque é demasiado grande
+ 0
- 1555
Fine_tune_LLMs_with_Axolotl.ipynb
A diferenza do arquivo foi suprimida porque é demasiado grande
+ 0
- 3349
Fine_tune_Llama_2_in_Google_Colab.ipynb
A diferenza do arquivo foi suprimida porque é demasiado grande
+ 0
- 757
Fine_tune_a_Mistral_7b_model_with_DPO.ipynb
A diferenza do arquivo foi suprimida porque é demasiado grande
+ 0
- 2822
Introduction_to_Weight_Quantization.ipynb
A diferenza do arquivo foi suprimida porque é demasiado grande
+ 0
- 1770
Mergekit.ipynb
A diferenza do arquivo foi suprimida porque é demasiado grande
+ 0
- 2218
Quantize_Llama_2_models_using_GGUF_and_llama_cpp.ipynb
A diferenza do arquivo foi suprimida porque é demasiado grande
+ 0
- 8505
Quantize_models_with_ExLlamaV2.ipynb