01-Ollama 在 LangChain 中的使用 - Python 集成
简介
本文档介绍了如何在 Python 环境中使用 Ollama 与 LangChain 集成,以创建强大的 AI 应用。Ollama 是一个开源的大语言模型部署工具,而 LangChain 则是一个用于构建基于语言模型的应用的框架。通过结合这两者,我们可以在本地环境中快速部署和使用先进的AI模型。
1. 环境设置
配置 Conda 环境
首先,我们需要在 Jupyter 中使用 Conda 环境。在命令行中执行以下命令:
conda create -n handlm python=3.10 -y
conda activate handlm
pip install jupyter
python -m ipykernel install --user --name=handlm
执行完毕后,重启 Jupyter,并选择该环境的 Kernel,如图所示:

⚠️ 注意
注意: 也可以不使用conda虚拟环境,直接使用全局环境。
安装依赖
在开始之前,我们需要安装以下包:
langchain-ollama: 用于集成 Ollama 模型到 LangChain 框架中langchain: LangChain 的核心库,提供了构建 AI 应用的工具和抽象langchain-community: 包含了社区贡献的各种集成和工具Pillow: 用于图像处理,在多模态任务中会用到faiss-cpu: 用于构建简单 RAG 检索器
可以通过以下命令安装:
pip install langchain-ollama langchain langchain-community Pillow faiss-cpu
2. 下载所需模型并初始化 OllamaLLM
下载 llama3.1 模型
- 进入官网 https://ollama.com/download 下载并安装 Ollama 到可用的受支持平台。
- 查看 https://ollama.ai/library 了解所有可用的模型。
- 通过
ollama pull <name-of-model>命令获取可用 LLM 模型(例如:ollama pull llama3.1)。
命令行执行完毕后如图所示:

模型存储位置:
- Mac:
~/.ollama/models/ - Linux(或 WSL):
/usr/share/ollama/.ollama/models - Windows:
C:\Users\Administrator\.ollama\models
