| .. | 
			
		
		
			
			
			
				
					| 
						
							
						
						__init__.py
					 | 
				
				
					207d2f80e9
					Make code-llama and hf-tgi inference runnable as module
				 | 
				преди 2 години | 
			
		
			
			
			
				
					| 
						
							
						
						chat_utils.py
					 | 
				
				
					6d9d48d619
					Use apply_chat_template instead of custom functions
				 | 
				преди 1 година | 
			
		
			
			
			
				
					| 
						
							
						
						checkpoint_converter_fsdp_hf.py
					 | 
				
				
					0e54f5634a
					use AutoTokenizer instead of LlamaTokenizer
				 | 
				преди 1 година | 
			
		
			
			
			
				
					| 
						
							
						
						llm.py
					 | 
				
				
					eeb45e5f2c
					Updated model names for OctoAI
				 | 
				преди 1 година | 
			
		
			
			
			
				
					| 
						
							
						
						model_utils.py
					 | 
				
				
					d51d2cce9c
					adding sdpa for flash attn
				 | 
				преди 1 година | 
			
		
			
			
			
				
					| 
						
							
						
						prompt_format_utils.py
					 | 
				
				
					bcdb5b31fe
					Fixing quantization config. Removing prints
				 | 
				преди 1 година | 
			
		
			
			
			
				
					| 
						
							
						
						safety_utils.py
					 | 
				
				
					f63ba19827
					Fixing tokenizer used for llama 3. Changing quantization configs on safety_utils.
				 | 
				преди 1 година |