|  Matthias Reso | 190d543b53
							
							Add fp8 references | 1 yıl önce | 
				
					
						|  Matthias Reso | c167945448
							
							remove 405B ft doc | 1 yıl önce | 
				
					
						|  Matthias Reso | b0b4e16aec
							
							Update docs/multi_gpu.md | 1 yıl önce | 
				
					
						|  Suraj | a81524c27c
							
							spellcheck appeasement | 1 yıl önce | 
				
					
						|  Suraj | 7296833d43
							
							Add codeshield to requirements | 1 yıl önce | 
				
					
						|  Suraj | 7cac948093
							
							Update special tokens table and URL | 1 yıl önce | 
				
					
						|  Suraj | 88167d59ca
							
							Merge branch 'main' of https://github.com/meta-llama/llama-recipes-alpha into main | 1 yıl önce | 
				
					
						|  Suraj | a9e8f810e7
							
							Merge branch 'main' of https://github.com/meta-llama/llama-recipes-alpha into hf_model_id | 1 yıl önce | 
				
					
						|  Matthias Reso | e2f77dbc21
							
							fix quant config | 1 yıl önce | 
				
					
						|  Matthias Reso | 6ef9a78458
							
							Fix issues with quantization_config == None | 1 yıl önce | 
				
					
						|  Matthias Reso | b319a9fb8c
							
							Fix lint issue | 1 yıl önce | 
				
					
						|  Matthias Reso | a3fd369127
							
							Ref from infernce recipes to vllm for 405B | 1 yıl önce | 
				
					
						|  Matthias Reso | a8f2267324
							
							Added multi node doc to multigpu_finetuning.md | 1 yıl önce | 
				
					
						|  Matthias Reso | afb3b75892
							
							Add 405B + QLoRA + FSDP to multi_gpu.md doc | 1 yıl önce | 
				
					
						|  Matthias Reso | 939c88fb04
							
							Add 405B + QLoRA ref to LLM finetung | 1 yıl önce | 
				
					
						|  Matthias Reso | d2fd9c163a
							
							Added doc for multi-node vllm inference | 1 yıl önce | 
				
					
						|  Thomas Robinson | 1a183c0a5e
							
							Introduce Llama guard customization notebook and associated dataset loader example | 1 yıl önce | 
				
					
						|  Cyrus Nikolaidis | 301e51a340
							
							Merge branch 'main' of github.com:meta-llama/llama-recipes-alpha | 1 yıl önce | 
				
					
						|  Cyrus Nikolaidis | 883def17f0
							
							Prompt Guard Inference for long strings | 1 yıl önce | 
				
					
						|  Suraj Subramanian | 0d00616b34
							
							Move MediaGen notebook to octoai folder (#601) | 1 yıl önce | 
				
					
						|  Suraj Subramanian | 5a9858f0f0
							
							Update README.md to remove mediagen reference | 1 yıl önce | 
				
					
						|  Suraj Subramanian | 5a878654ec
							
							Move MediaGen notebook to octoai folder | 1 yıl önce | 
				
					
						|  Suraj | 4be3eb0d17
							
							Updates HF model_ids and readmes for 3.1 | 1 yıl önce | 
				
					
						|  Matthias Reso | c9ae014459
							
							Enable pipeline parallelism through use of AsyncLLMEngine in vllm inferecen + enable use of lora adapter | 1 yıl önce | 
				
					
						|  Suraj | d1d08f9b82
							
							Update promptguard model-id | 1 yıl önce | 
				
					
						|  Suraj | 308026aad5
							
							Adds tentative llamaguard HF model id, eos_token_id for model.generate | 1 yıl önce | 
				
					
						|  Matthias Reso | 0920b1a415
							
							Fix quantization for inference | 1 yıl önce | 
				
					
						|  Matthias Reso | b36830fdf6
							
							Fix reading in stdin for chat_completion, remove padding as we're feeding single samples | 1 yıl önce | 
				
					
						|  Matthias Reso | f0aa8e31ca
							
							Update url | 1 yıl önce | 
				
					
						|  Matthias Reso | 9db61e5235
							
							Refactored infeence to allow multiple requests through gradio | 1 yıl önce |