Commit Verlauf

Autor SHA1 Nachricht Datum
  Suraj a46d0422cf Add note about LG3 finetuning notebook vor 1 Jahr
  Matthias Reso 00e0b0be6c Apply suggestions from code review vor 1 Jahr
  Matthias Reso 190d543b53 Add fp8 references vor 1 Jahr
  Matthias Reso c167945448 remove 405B ft doc vor 1 Jahr
  Matthias Reso b0b4e16aec Update docs/multi_gpu.md vor 1 Jahr
  Suraj a81524c27c spellcheck appeasement vor 1 Jahr
  Suraj 7296833d43 Add codeshield to requirements vor 1 Jahr
  Suraj 7cac948093 Update special tokens table and URL vor 1 Jahr
  Suraj 88167d59ca Merge branch 'main' of https://github.com/meta-llama/llama-recipes-alpha into main vor 1 Jahr
  Suraj a9e8f810e7 Merge branch 'main' of https://github.com/meta-llama/llama-recipes-alpha into hf_model_id vor 1 Jahr
  Matthias Reso e2f77dbc21 fix quant config vor 1 Jahr
  Matthias Reso 6ef9a78458 Fix issues with quantization_config == None vor 1 Jahr
  Matthias Reso b319a9fb8c Fix lint issue vor 1 Jahr
  Matthias Reso a3fd369127 Ref from infernce recipes to vllm for 405B vor 1 Jahr
  Matthias Reso a8f2267324 Added multi node doc to multigpu_finetuning.md vor 1 Jahr
  Matthias Reso afb3b75892 Add 405B + QLoRA + FSDP to multi_gpu.md doc vor 1 Jahr
  Matthias Reso 939c88fb04 Add 405B + QLoRA ref to LLM finetung vor 1 Jahr
  Matthias Reso d2fd9c163a Added doc for multi-node vllm inference vor 1 Jahr
  Thomas Robinson 1a183c0a5e Introduce Llama guard customization notebook and associated dataset loader example vor 1 Jahr
  Cyrus Nikolaidis 301e51a340 Merge branch 'main' of github.com:meta-llama/llama-recipes-alpha vor 1 Jahr
  Cyrus Nikolaidis 883def17f0 Prompt Guard Inference for long strings vor 1 Jahr
  Suraj Subramanian 0d00616b34 Move MediaGen notebook to octoai folder (#601) vor 1 Jahr
  Suraj Subramanian 5a9858f0f0 Update README.md to remove mediagen reference vor 1 Jahr
  Suraj Subramanian 5a878654ec Move MediaGen notebook to octoai folder vor 1 Jahr
  Suraj 4be3eb0d17 Updates HF model_ids and readmes for 3.1 vor 1 Jahr
  Matthias Reso c9ae014459 Enable pipeline parallelism through use of AsyncLLMEngine in vllm inferecen + enable use of lora adapter vor 1 Jahr
  Suraj d1d08f9b82 Update promptguard model-id vor 1 Jahr
  Suraj 308026aad5 Adds tentative llamaguard HF model id, eos_token_id for model.generate vor 1 Jahr
  Matthias Reso 0920b1a415 Fix quantization for inference vor 1 Jahr
  Matthias Reso b36830fdf6 Fix reading in stdin for chat_completion, remove padding as we're feeding single samples vor 1 Jahr