要在 Python 环境中设置 LangChain,首先安装该库并创建一个虚拟环境。首先运行 python -m venv langchain_env
来创建一个隔离的环境,然后使用您的终端激活它(例如,在 Unix 上使用 source langchain_env/bin/activate
)。使用 pip 安装 LangChain,命令是 pip install langchain
。这将安装核心库,其中包括链、代理和内存管理的基本类。如果您计划使用像 OpenAI 的 GPT 这样的语言模型,请添加它们的 SDK——例如,运行 pip install openai
以集成 OpenAI。LangChain 的模块化设计允许您只安装您需要的组件,例如 pip install langchain-community
用于第三方集成,或 pip install langchain-core
用于核心实用程序。
接下来,配置 API 密钥和外部服务。例如,要使用 OpenAI 模型,请在环境中设置您的 API 密钥
import os
os.environ["OPENAI_API_KEY"] = "your-api-key-here"
如果您使用的是 Hugging Face 模型,请安装 pip install huggingface_hub
并设置 HUGGINGFACEHUB_API_TOKEN
。LangChain 支持多个提供商,因此您可以通过安装它们各自的软件包并配置密钥,在像 Anthropic 或 Google 的 Gemini 这样的服务之间切换。对于本地模型测试,请使用 pip install transformers
并通过 Hugging Face pipelines 加载模型。这种灵活性允许您使用云 API 进行原型设计,并在以后切换到本地模型,而无需重写整个链。
最后,构建一个基本应用程序。从一个简单的提示模板和链开始
from langchain_core.prompts import PromptTemplate
from langchain_openai import OpenAI
prompt = PromptTemplate(template="Write a haiku about {topic}:", input_variables=["topic"])
llm = OpenAI(temperature=0.7)
chain = prompt | llm # Combine prompt and model
print(chain.invoke({"topic": "robots"}))
此示例创建一个基于结构化提示生成文本的链。对于更高级的用例,可以探索代理(例如,pip install langchain-experimental
)以添加决策逻辑,或使用内存模块来保持交互之间的上下文。有关详细示例,请参阅 LangChain 的文档,例如构建检索增强生成 (RAG) 系统或连接到向量数据库。保持依赖项更新,因为 LangChain 的生态系统经常发展以支持新的工具和提供商。