소스 검색

Skip test_batching when tokenizer is missing

Matthias Reso 1 년 전
부모
커밋
cb3658f284
1개의 변경된 파일2개의 추가작업 그리고 0개의 파일을 삭제
  1. 2 0
      src/tests/test_batching.py

+ 2 - 0
src/tests/test_batching.py

@@ -25,6 +25,7 @@ EXPECTED_SAMPLE_NUMBER ={
     }
 }
 
+@pytest.mark.skip_missing_tokenizer
 @patch('llama_recipes.finetuning.train')
 @patch('llama_recipes.finetuning.AutoTokenizer')
 @patch("llama_recipes.finetuning.AutoConfig.from_pretrained")
@@ -90,6 +91,7 @@ def test_packing(
         assert batch["attention_mask"][0].size(0) == 4096
 
 
+@pytest.mark.skip_missing_tokenizer
 @patch("llama_recipes.finetuning.torch.cuda.is_available")
 @patch('llama_recipes.finetuning.train')
 @patch('llama_recipes.finetuning.AutoTokenizer')