|
hai 1 ano | |
---|---|---|
.gitignore | %!s(int64=2) %!d(string=hai) anos | |
.pre-commit-config.yaml | %!s(int64=2) %!d(string=hai) anos | |
.python-version | %!s(int64=2) %!d(string=hai) anos | |
00.quickstart-langchain.ipynb | %!s(int64=2) %!d(string=hai) anos | |
01.loaders-indexes-vectorstores.ipynb | %!s(int64=2) %!d(string=hai) anos | |
02.models.ipynb | %!s(int64=2) %!d(string=hai) anos | |
03.chains.ipynb | %!s(int64=2) %!d(string=hai) anos | |
04.memory.ipynb | %!s(int64=2) %!d(string=hai) anos | |
05.agents.ipynb | %!s(int64=2) %!d(string=hai) anos | |
06.private-gpt4all-qa-pdf.ipynb | %!s(int64=2) %!d(string=hai) anos | |
07.falcon-qlora-fine-tuning.ipynb | %!s(int64=2) %!d(string=hai) anos | |
08.faster-llm-inference.ipynb | %!s(int64=2) %!d(string=hai) anos | |
09.deploy-llm-to-production.ipynb | %!s(int64=2) %!d(string=hai) anos | |
10.customer-support-chatbot-with-open-llm-and-langchain.ipynb | %!s(int64=2) %!d(string=hai) anos | |
11.chatbot-with-local-llm-falcon-7b.ipynb | %!s(int64=2) %!d(string=hai) anos | |
12.deploy-llama2-to-production-with-runpod.ipynb | %!s(int64=2) %!d(string=hai) anos | |
13.chat-with-multiple-pdfs-using-llama-2-and-langchain.ipynb | hai 1 ano | |
14.fine-tuning-llama-2-7b-on-custom-dataset.ipynb | hai 1 ano | |
15.langchain-quickstart-with-llama-2.ipynb | hai 1 ano | |
17.ai-agents-with-autogen.ipynb | hai 1 ano | |
18.autogen-use-cases.ipynb | hai 1 ano | |
19.speedup-llm-inference-with-vllm.ipynb | hai 1 ano | |
LICENSE | %!s(int64=2) %!d(string=hai) anos | |
README.md | hai 1 ano | |
SDXL-Turbo.ipynb | hai 1 ano | |
llama-2.ipynb | %!s(int64=2) %!d(string=hai) anos | |
llava.ipynb | hai 1 ano | |
mamba-chat.ipynb | hai 1 ano | |
mistral-7b.ipynb | hai 1 ano | |
open-llama.ipynb | %!s(int64=2) %!d(string=hai) anos | |
phi-2.ipynb | hai 1 ano | |
stable-vicuna.ipynb | %!s(int64=2) %!d(string=hai) anos | |
xgen.ipynb | %!s(int64=2) %!d(string=hai) anos | |
zephyr-7b-beta.ipynb | hai 1 ano |
Build real-world AI apps with ChatGPT/GPT-4 and LangChain in Python