Procházet zdrojové kódy

Skip test_batching when tokenizer is missing

Matthias Reso před 1 rokem
rodič
revize
cb3658f284
1 změnil soubory, kde provedl 2 přidání a 0 odebrání
  1. 2 0
      src/tests/test_batching.py

+ 2 - 0
src/tests/test_batching.py

@@ -25,6 +25,7 @@ EXPECTED_SAMPLE_NUMBER ={
     }
 }
 
+@pytest.mark.skip_missing_tokenizer
 @patch('llama_recipes.finetuning.train')
 @patch('llama_recipes.finetuning.AutoTokenizer')
 @patch("llama_recipes.finetuning.AutoConfig.from_pretrained")
@@ -90,6 +91,7 @@ def test_packing(
         assert batch["attention_mask"][0].size(0) == 4096
 
 
+@pytest.mark.skip_missing_tokenizer
 @patch("llama_recipes.finetuning.torch.cuda.is_available")
 @patch('llama_recipes.finetuning.train')
 @patch('llama_recipes.finetuning.AutoTokenizer')