模型 - LangChain 框架 --知识铺
模型¶
本页面描述了如何配置代理使用的聊天模型。
工具调用支持¶
要启用工具调用代理,底层 LLM 必须支持工具调用。
兼容模型可在LangChain 集成目录中找到。
按名称指定模型¶
您可以使用模型名称字符串配置代理
<span id="__span-0-1">import os
<span id="__span-0-2">from langgraph.prebuilt import create_react_agent
<span id="__span-0-3">
<span id="__span-0-4">os.environ["OPENAI_API_KEY"] = "sk-..."
<span id="__span-0-5">
<span id="__span-0-6">agent = create_react_agent(
<span id="__span-0-7"> model="openai:gpt-4.1",
<span id="__span-0-8"> # other parameters
<span id="__span-0-9">)
使用 init_chat_model¶
init_chat_model 工具简化了模型初始化,并提供了可配置参数。
<span id="__span-5-1">pip install -U "langchain[openai]"
<span id="__span-6-1">import os
<span id="__span-6-2">from langchain.chat_models import init_chat_model
<span id="__span-6-3">
<span id="__span-6-4">os.environ["OPENAI_API_KEY"] = "sk-..."
<span id="__span-6-5">
<span id="__span-6-6">model = init_chat_model(
<span id="__span-6-7"> "openai:gpt-4.1",
<span id="__span-6-8"> temperature=0,
<span id="__span-6-9"> # other parameters
<span id="__span-6-10">)
请参阅 API 参考了解高级选项。
使用特定提供商的 LLM¶
如果模型提供商无法通过 init_chat_model 获得,您可以直接实例化该提供商的模型类。该模型必须实现 BaseChatModel 接口并支持工具调用。
API 参考:ChatAnthropic | create_react_agent
<span id="__span-15-1">from langchain_anthropic import ChatAnthropic
<span id="__span-15-2">from langgraph.prebuilt import create_react_agent
<span id="__span-15-3">
<span id="__span-15-4">model = ChatAnthropic(
<span id="__span-15-5"> model="claude-3-7-sonnet-latest",
<span id="__span-15-6"> temperature=0,
<span id="__span-15-7"> max_tokens=2048
<span id="__span-15-8">)
<span id="__span-15-9">
<span id="__span-15-10">agent = create_react_agent(
<span id="__span-15-11"> model=model,
<span id="__span-15-12"> # other parameters
<span id="__span-15-13">)
说明性示例
上面的示例使用了 ChatAnthropic,它已经被 init_chat_model 支持。显示此模式是为了说明如何手动实例化一个通过 init_chat_model 无法获得的模型。
禁用流式传输¶
要禁用单个 LLM 令牌的流式传输,请在初始化模型时设置 disable_streaming=True。
<span id="__span-16-1">from langchain.chat_models import init_chat_model
<span id="__span-16-2">
<span id="__span-16-3">model = init_chat_model(
<span id="__span-16-4"> "anthropic:claude-3-7-sonnet-latest",
<span id="__span-16-5"> disable_streaming=True
<span id="__span-16-6">)
请参阅 API 参考了解更多关于 disable_streaming 的信息。
添加模型回退¶
您可以使用 model.with_fallbacks([...]) 为不同的模型或不同的 LLM 提供商添加回退。
<span id="__span-18-1">from langchain.chat_models import init_chat_model
<span id="__span-18-2">
<span id="__span-18-3">model_with_fallbacks = (
<span id="__span-18-4"> init_chat_model("anthropic:claude-3-5-haiku-latest")
<span id="__span-18-5"> .with_fallbacks([
<span id="__span-18-6"> init_chat_model("openai:gpt-4.1-mini"),
<span id="__span-18-7"> ])
<span id="__span-18-8">)
请参阅此指南了解更多关于模型回退的信息。
其他资源¶
- 原文作者:知识铺
- 原文链接:https://index.zshipu.com/ai002/post/20251125/%E6%A8%A1%E5%9E%8B-LangChain-%E6%A1%86%E6%9E%B6/
- 版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 4.0 国际许可协议进行许可,非商业转载请注明出处(作者,原文链接),商业转载请联系作者获得授权。
- 免责声明:本页面内容均来源于站内编辑发布,部分信息来源互联网,并不意味着本站赞同其观点或者证实其内容的真实性,如涉及版权等问题,请立即联系客服进行更改或删除,保证您的合法权益。转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。也可以邮件至 sblig@126.com