فهرست منبع

Remove max_length from tokenization

Matthias Reso 1 سال پیش
والد
کامیت
d9131d9a3d
1فایلهای تغییر یافته به همراه0 افزوده شده و 1 حذف شده
  1. 0 1
      recipes/quickstart/inference/local_inference/inference.py

+ 0 - 1
recipes/quickstart/inference/local_inference/inference.py

@@ -89,7 +89,6 @@ def main(
 
         batch = tokenizer(
             user_prompt,
-            padding="max_length",
             truncation=True,
             max_length=max_padding_length,
             return_tensors="pt",