做网站需要规划好什么,小程序注册公司,做信息采集的网站,公司手机网站设计在人工智能技术飞速发展的今天#xff0c;大模型已经成为各行各业提升效率的利器。从会议记录撰写到代码编程#xff0c;从数据分析到总结报告生成等各个领域都少不了大模型的参与。目前大家使用大模型的方法基本是在对话界面向大模型提出问题并得到解决方案。 然而#xff…在人工智能技术飞速发展的今天大模型已经成为各行各业提升效率的利器。从会议记录撰写到代码编程从数据分析到总结报告生成等各个领域都少不了大模型的参与。目前大家使用大模型的方法基本是在对话界面向大模型提出问题并得到解决方案。然而随着工作难度的进一步增强如何快速、高效地使用这些强大的AI能力创造更便捷的AI工具成为了许多开发者和企业的痛点。大模型的API调用正是解决这一问题的关键一、API调用的优势相比传统的问答网站API调用有如下便捷优势是广大程序员发挥创造力的利器快速集成降低开发成本API调用允许开发者通过简单的接口将DeepSeek大模型的强大能力嵌入到自己的应用或系统中。无论是文本生成、数据分析还是智能客服API都能快速实现功能集成无需从头开发复杂的AI模型。灵活扩展满足多样化需求通过API调用开发者可以根据业务需求灵活调整调用频率和规模。无论是小型项目还是大型企业级应用API都能轻松应对实现按需扩展。高效稳定提升用户体验API调用基于云端服务具备高可用性和低延迟的特点。用户无需担心本地硬件性能不足也能享受到流畅的AI服务体验。二、 大模型OpenAI调用格式2.1 OpenAI调用格式详解OpenAI 作为行业领军者不仅开发出gpt-4,gpt-o1等知名大模型还统一了大模型的API请求规范分为如下三步实例化客户端指定大模型的base_url和api_key设置请求参数其中messages是必填参数类型是列表每个列表项由content和role字段组成有system message,user message,assistant message,tool message四种:对于问答项目一般只需要system message,user message和assistant message三个字段tool message一般用于设置大模型调用扩展函数的能力是开发AI Agent的关键在下一篇Fucntion Calling技术分享中会详细演示大家感兴趣可关注我的微信公众号大模型真好玩 工作学习中的大模型经验知识全部免费分享。system message:设置系统消息, 提供对话背景user message:设置用户对话内容assistant message设置大模型输出内容和使用函数除了content和role字段外还有tool_calls字段是可选的列表类型指定大模型要调用的函数比如联网搜索函数计算器函数等扩展大模型能力tool message:在用户根据assistant的tool_calls内容调用了某个函数后用户可能还需要再把函数调用结果反馈给大模型让大模型根据函数调用结果给出最终的总结性的答复。除了content和role字段外还有tool_call_id字段表示对指定函数反馈。解析请求返回对象非流式调用返回chat completion object(大模型一次性输出全部回答), 包括流式调用(大模型一个词一个词输出 问答网站的常见形式)返回chat completion chunk object, 与chat completion object唯一不同的是choices对象, 流式调用choices对象中有delta字段该字段中的content属性是渐变的比如第一个chunk流的content是“Hel”第二个chunk流的content是“Hello ”第三个chunk流的content是“Hello wo”第四个chunk流的content是“Hello world!id:本次会话唯一标识符choices:响应的内容列表, choices列表项中message对象的content字段记录了大模型回答的内容created:聊天完成时间model:用于聊天的模型usage:本次聊天统计请求包括生成token的数目等2.2 构造OpenAI请求格式访问DeepSeek大模型通过上面的介绍想必大家已经详细了解了OpenAI大模型调用格式。我们的国产大模型之光—DeepSeek大模型也支持通过OpenAI格式调用。下面我们将详细介绍如何使用Python 结合 OpenAI 格式请求调用DeepSeek API并通过具体的代码示例帮助大家快速上手。进入DeepSeek官网并点击API开放平台:注册DeepSeek开发者账号并获取API密钥API Key使用API访问前要确保你的token余量充足。这里使用python进行API调用演示执行pip install openai下载openai请求格式库编写如下代码测试访问可以看到请求参数包含了上面讲过的base_url,api_key以及两种message返回结果保存在response对象的choice属性中。from openai import OpenAIclient OpenAI(api_key你获得的API Key, base_urlhttps://api.deepseek.com)response client.chat.completions.create( modeldeepseek-chat, messages[ {role: system, content: You are a helpful assistant}, {role: user, content: Hello}, ], streamFalse)print(response.choices[0].message.content)三、 使用DeepSeek API构建多轮对话机器人熟悉DeepSeek API的调用过程后下面通过一个小项目构建多轮对话机器人帮助大家进一步玩转大模型编程理解对话网站的逻辑。完整代码在: https://codecopy.cn/post/jgd6iw导入openai格式包并创建deepseek访问客户端:from openai import OpenAIclient OpenAI(api_key填入你的api, base_urlhttps://api.deepseek.com)创建请求体的messages列表(列表包含多轮对话的历史信息)每个messages列表项包括role角色和content内容两个属性:def create_message(role, content): return { role: role, content: content }def process_user_input(input_text): return create_message(user, input_text)定义解析用户提问后大模型返回结果的函数:def chat_with_DeepSeek(client, messages): response client.chat.completions.create( modeldeepseek-chat, # 使用 deepseek-chat 模型 messagesmessages ) # 提取并返回助手生成的回复内容 return response.choices[0].message.content定义多轮对话的函数逻辑, 首先创建上下文messages列表设置背景system_message, 把每轮对话的用户输入处理为user_message系统回复处理为assistant_message统统添加到messages列表中让大模型了解到历史对话背景def multi_round_chat(): # 初始化消息列表包含系统消息 messages [] # 创建系统消息设置对话的上下文 system_message create_message(system, You are a helpful assistant.) messages.append(system_message) while True: # 捕获用户输入 user_input input(User: ) # 处理用户输入并生成相应的消息 user_message process_user_input(user_input) messages.append(user_message) # 调用 DeepSeek 模型进行回复 assistant_reply chat_with_DeepSeek(client, messages) print(assistant_reply) # 将助手回复添加到消息列表, 多轮对话必备 messages.append(create_message(assistant, assistant_reply)) # 提供退出机制用户可以输入 exit 退出对话 if user_input.lower() exit: print(对话结束。) break调用多轮对话函数multi_round_chat()开始与大模型对话吧~:四、DeepSeek API 调用详细参数除了常用的model和messages参数DeepSeek模型 API调用还有其它许多别的参数这里直接给大家列一个总表大家按需传参参数名类型必填/可选默认值说明modelstring必填无指定要使用的模型 ID例如deepseek-chat或deepseek-reasoner。storeboolean or null可选false是否存储本次对话的输出供模型精炼或评估产品使用。metadataobject or null可选null开发者自定义的标签和值用于过滤仪表盘中的补全结果。frequency_penaltynumber or null可选0数值在-2.0到2.0之间正值减少重复生成内容的可能性。logit_biasmap可选null调整某些特定 tokens 出现的可能性值在-100到100之间。logprobsboolean or null可选false是否返回生成的每个 token 的对数概率。top_logprobsinteger or null可选null指定返回最有可能出现的前几个 tokens 及其概率需开启logprobs。max_completion_tokensinteger or null可选null指定模型生成的最大 token 数包括可见文本和推理 tokens。ninteger or null可选1每个输入生成的对话补全选项数量值越大生成的回复越多。presence_penaltynumber or null可选0数值在-2.0到2.0之间正值鼓励生成新的主题和内容。response_formatobject可选null指定生成结果的格式可以设置为json_schema以确保结构化输出或json_object用于 JSON 格式。seedinteger or null可选null保持生成的一致性重复相同请求将尽量生成相同的结果。service_tierstring or null可选auto指定服务延迟等级适用于付费订阅用户默认为auto。stopstring / array / null可选null最多指定 4 个序列API 遇到这些序列时会停止生成进一步的 tokens。streamboolean or null可选false是否启用流式响应若启用生成的 tokens 将逐步返回。stream_optionsobject or null可选null流式响应的选项仅当stream为true时设置。temperaturenumber or null可选1控制生成输出的随机性值越高生成的文本越随机。建议调整此值或top_p而不是同时调整。top_pnumber or null可选1使用核采样方法选择最有可能的 tokens总概率达到top_p百分比。建议与temperature二选一。toolsarray可选null模型可以调用的工具列表目前仅支持函数调用。userstring可选null表示最终用户的唯一标识符用于监控和检测滥用行为。五、总结本文分享了如何使用python 代码 编写 OpenAI 访问格式来请求DeepSeek大模型并编写了一个简单的多轮对话机器人帮助大家理解对话网站的基本原理。读者福利如果大家对大模型感兴趣这套大模型学习资料一定对你有用对于0基础小白入门如果你是零基础小白想快速入门大模型是可以考虑的。一方面是学习时间相对较短学习内容更全面更集中。二方面是可以根据这些资料规划好学习计划和方向。