Beto f63ba19827 Fixing tokenizer used for llama 3. Changing quantization configs on safety_utils. 1 năm trước cách đây
..
configs fa0a389f74 add max_step feature for training and eval 1 năm trước cách đây
data 4913d3ad24 Add missing copyright header 1 năm trước cách đây
datasets 69db75d425 fix incorrect split of InstructionDataset 1 năm trước cách đây
inference f63ba19827 Fixing tokenizer used for llama 3. Changing quantization configs on safety_utils. 1 năm trước cách đây
model_checkpointing ce9501f22c remove relative imports 2 năm trước cách đây
policies ce9501f22c remove relative imports 2 năm trước cách đây
tools 4913d3ad24 Add missing copyright header 1 năm trước cách đây
utils e6f69f84ad add max_steps_reached to reduce redundancy 1 năm trước cách đây
finetuning.py 11f51db28c adding the kbit prep in the code 1 năm trước cách đây