|
1 ano atrás | |
---|---|---|
.. | ||
aws | 1 ano atrás | |
azure | 1 ano atrás | |
groq | 1 ano atrás | |
lamini | 1 ano atrás | |
octoai | 1 ano atrás | |
tgi | 1 ano atrás | |
vllm | 1 ano atrás | |
README.md | 1 ano atrás | |
llama_on_prem.md | 1 ano atrás | |
using_externally_hosted_llms.ipynb | 1 ano atrás |
This tutorial shows how to use Llama 3 with vLLM and Hugging Face TGI to build Llama 3 on-prem apps.