要使用 OpenAI 模型执行文本摘要,可以利用其 API 发送文本提示并接收一个精简版本。首先选择一个模型,例如 gpt-3.5-turbo
或 gpt-4
,这些模型专为自然语言任务设计。你需要构建 API 请求,使其包含输入文本和清晰的指令,例如“用三句话概括这篇文章”。模型会处理输入,识别要点,并生成简洁的摘要。例如,如果你输入一篇 500 字的新闻文章,API 可能会返回一个三句话的摘要,突出主要事件、背景和结果。这种方法适用于单文档摘要和多源聚合,具体取决于你如何格式化输入。
要实现这一点,首先通过安装官方 Python 库 (openai
) 并配置你的 API 密钥来设置你的 OpenAI API 访问。使用 ChatCompletion
端点构建请求,指定模型、系统消息(例如,“你是一个能帮助总结文本的助手”)以及包含要总结文本的用户消息。调整 max_tokens
等参数来限制摘要长度,以及 temperature
(较低的值如 0.3 会产生更集中的结果)。例如,一个 Python 脚本可能会发送如下提示
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "Summarize the following text in three sentences."},
{"role": "user", "content": "Long input text here..."}
],
temperature=0.3,
max_tokens=150
)
响应将在 response.choices[0].message.content
中包含摘要。对于较长的文本,将输入分割成小于模型 token 限制的块(例如,gpt-3.5-turbo
的 token 限制为 4,096 个),以避免截断。
考虑因素包括成本、准确性和输入格式。API 使用按 token 计费,因此总结大型文档的成本可能会累积——建议先用较短的文本进行测试。验证摘要是否保留了关键信息;你可能需要优化提示词(例如,“侧重技术细节”或“省略示例”)。对于技术内容,明确要求模型避免简化。如果输入包含结构化数据(如项目符号),请指定是否保留格式。最后,通过实现重试逻辑来处理速率限制等错误。通过迭代优化提示词和参数,你可以根据特定用例调整输出,例如报告的执行摘要或研究论文的摘要。