Commit Verlauf

Autor SHA1 Nachricht Datum
  Kai Wu 307510b8c5 refactor folder vor 1 Jahr
  Kai Wu 48ea26cba3 changed requirement.txt for eval vor 1 Jahr
  Kai Wu 91fd013a9d Merge branch 'main' into raft vor 1 Jahr
  Matthias Reso 2845306c8a Update transformers requirements (#605) vor 1 Jahr
  albertodepaola c0d58d54a0 Update requirements.txt vor 1 Jahr
  Suraj 7296833d43 Add codeshield to requirements vor 1 Jahr
  Kai Wu 7439b9df2c fixed requirement.txt vor 1 Jahr
  Kai Wu afcc874590 modified readme and requirement.txt vor 1 Jahr
  Kai Wu 8baf6b5d99 llama working exmaple checkpoint vor 1 Jahr
  Kai Wu f44281aaff better evalset and working pipeline vor 1 Jahr
  Kai Wu 28b3f46a36 updated requirement.txt vor 1 Jahr
  Kai Wu 9add30acb2 restructured folders and added eval pipeline vor 1 Jahr
  Kai Wu d5767a1200 changed requirement.txt and readme.md vor 1 Jahr
  Kai Wu d9558c11ca changed context name and add more docs vor 1 Jahr
  Hamid Shojanazeri 554396d4ec bumping transformer versions for llama3 support vor 1 Jahr
  Hamid Shojanazeri d717be8ad4 Merge pull request #3 from albertodepaola/l3p/finetuning_inference_chat_mods vor 1 Jahr
  Matthias Reso 43cb6a2db4 Remove check for nighlies for low_cpu_fsdp and bump torch version to 2.2 instead vor 1 Jahr
  varunfb a404c9249c Notebook to demonstrate using llama and llama-guard together using OctoAI vor 1 Jahr
  Joone Hur aec45aed81 Add gradio to requirements.txt vor 1 Jahr
  Beto 7474514fe0 Merging with main vor 1 Jahr
  Beto 7881b3bb99 Changing safety utils to use HF classes to load Llama Guard. Removing Llama plain inference code vor 1 Jahr
  Beto 92be45b0fe Adding matplotlib to requirements. Removing import from train_utils vor 1 Jahr
  Matthias Reso 1c473b6e7c remove --find-links which is unsupported by packaging backends; Update documentation how to retireve correct pytorch version vor 2 Jahren
  Matthias Reso bf152a7dcb Upgrade torch requirement to 2.1 RC vor 2 Jahren
  Matthias Reso 5b6858949d remove version pinning from bitsandbytes vor 2 Jahren
  Matthias Reso 31fabb254a Make vllm optional vor 2 Jahren
  Matthias Reso 2717048197 Add vllm and pytest as dependencies vor 2 Jahren
  Matthias Reso 02428c992a Adding vllm as dependency; fix dep install with hatchling vor 2 Jahren
  Matthias Reso c8522eb0ff Remove peft install from src vor 2 Jahren
  Hamid Shojanazeri 44ef280d31 adding flash attention and xformer memory efficient through PT SDPA vor 2 Jahren