Historial de Commits

Autor SHA1 Mensaje Fecha
  Matthias Reso c167945448 remove 405B ft doc hace 1 año
  Matthias Reso b0b4e16aec Update docs/multi_gpu.md hace 1 año
  Suraj a81524c27c spellcheck appeasement hace 1 año
  Suraj 7296833d43 Add codeshield to requirements hace 1 año
  Suraj 7cac948093 Update special tokens table and URL hace 1 año
  Suraj 88167d59ca Merge branch 'main' of https://github.com/meta-llama/llama-recipes-alpha into main hace 1 año
  Suraj a9e8f810e7 Merge branch 'main' of https://github.com/meta-llama/llama-recipes-alpha into hf_model_id hace 1 año
  Matthias Reso e2f77dbc21 fix quant config hace 1 año
  Matthias Reso 6ef9a78458 Fix issues with quantization_config == None hace 1 año
  Matthias Reso b319a9fb8c Fix lint issue hace 1 año
  Matthias Reso a3fd369127 Ref from infernce recipes to vllm for 405B hace 1 año
  Matthias Reso a8f2267324 Added multi node doc to multigpu_finetuning.md hace 1 año
  Matthias Reso afb3b75892 Add 405B + QLoRA + FSDP to multi_gpu.md doc hace 1 año
  Matthias Reso 939c88fb04 Add 405B + QLoRA ref to LLM finetung hace 1 año
  Matthias Reso d2fd9c163a Added doc for multi-node vllm inference hace 1 año
  Thomas Robinson 1a183c0a5e Introduce Llama guard customization notebook and associated dataset loader example hace 1 año
  Cyrus Nikolaidis 301e51a340 Merge branch 'main' of github.com:meta-llama/llama-recipes-alpha hace 1 año
  Cyrus Nikolaidis 883def17f0 Prompt Guard Inference for long strings hace 1 año
  Suraj Subramanian 0d00616b34 Move MediaGen notebook to octoai folder (#601) hace 1 año
  Suraj Subramanian 5a9858f0f0 Update README.md to remove mediagen reference hace 1 año
  Suraj Subramanian 5a878654ec Move MediaGen notebook to octoai folder hace 1 año
  Suraj 4be3eb0d17 Updates HF model_ids and readmes for 3.1 hace 1 año
  Matthias Reso c9ae014459 Enable pipeline parallelism through use of AsyncLLMEngine in vllm inferecen + enable use of lora adapter hace 1 año
  Suraj d1d08f9b82 Update promptguard model-id hace 1 año
  Suraj 308026aad5 Adds tentative llamaguard HF model id, eos_token_id for model.generate hace 1 año
  Matthias Reso 0920b1a415 Fix quantization for inference hace 1 año
  Matthias Reso b36830fdf6 Fix reading in stdin for chat_completion, remove padding as we're feeding single samples hace 1 año
  Matthias Reso f0aa8e31ca Update url hace 1 año
  Matthias Reso 9db61e5235 Refactored infeence to allow multiple requests through gradio hace 1 año
  Thomas Robinson fd9f52f710 Modify prompt_format_utils with changes necessary for Llama Guard 3 (#1) hace 1 año