【官方】Claude LLM 大语言模型使用文档中文版

来源与进度

👉 野卡 | 一分钟注册,轻松订阅海外线上服务


1 介绍

1.1 开始使用 Claude

什么是 Claude?

Claude 是由 Anthropic 创建的大型语言模型 (LLM)。它经过训练可以以会话方式成为一位有帮助的助手。

与 Claude 交互的几种方式:
网页端 – 通过 Anthropic 控制台的聊天界面与 Claude 对话。
API – 允许将 Claude 集成到您的产品中,为客户提供服务。

无论通过哪种方式,与 Claude 的交互方式基本相同,这使得您可以先在网页控制台中试验,然后将这些方式应用到 API 中。

获取 Claude 访问权限

Anthropic 正在谨慎地推出 Claude,以确保其安全性和可扩展性。我们正与选定的合作伙伴合作,如果您有兴趣成为合作伙伴,可以提交申请。

与 Claude 的第一次聊天

Claude 的响应效果取决于您提问的方式。以下是一些建议:
像对待外包员工一样与 Claude 交谈
直接明确地表达您的需求,例如:“写一篇专家级的激光光学技术摘要。”
Claude“记得”整个线程
通过 Slack 或网页界面与 Claude 交互时,它可以记住当前线程中的内容,但无法跨线程记忆。
0

需要记住的限制

  • 角色扮演:Claude 正在扮演一个助手角色,可能会错误地报告能力。
  • 计算错误:在复杂算术和推理方面常出错。
  • 幻觉:可能会编造不存在的信息。
  • 无互联网访问:无法实时获取信息。
  • 训练数据时限:数据可能早于两年前。
  • 无法采取行动:仅能提供建议。

术语词典

  • 上下文窗口:模型可以回顾和参考的文本量。
  • 微调:使用额外数据进一步训练模型。
  • HHH:有帮助、诚实、无害的目标。
  • LLM:大型语言模型。
  • RLHF:人工反馈强化学习。
  • 温度:控制模型预测随机性的参数。
  • Token:语言模型的最小“原子”单位。

2 提示词(Prompt)设计

2.1 设计提示词

将 Claude 想象成一名新雇佣的承包商,给它具体明确的指示。

提示词与响应

  • 提示词:通过问题或指示引发相关响应,例如:

人类:为什么天空是蓝色的?
助手:

  • 响应:Claude 的回复称为“响应”。

“把内容喂到 Claude 的嘴里”

通过 人类/助手 样式进行持续对话,例如:

人类:请选择一个随机水果。
助手:这里是我为您随机选择的水果:
番石榴。
人类:这种水果的颜色是什么?
助手:

提示长度

Claude 当前上下文窗口为 6500 单词/8000 token/28000 Unicode 字符。

2.2 避免歧义

写提示词时,想象正在与一个九岁小孩交谈,明确描述需求并提供示例。

明确描述需求

  • 反例:纽约有多大?
  • 正例:相比其他州,纽约州的面积和人口有多大?

提供示例

  • 反例:人类:想一个护士的有趣集体名词。
  • 正例:提供示例或编造对话历史。

描述语调

  • 反例:人类:毕达哥拉斯定理是什么?
  • 正例:人类:在我们接下来的对话中,我希望您以数学老师的身份行事……

使用 XML 标记

用标签定义结构,例如:

人类:这里有一篇用

标签包裹的文章:

如果您陷入了似乎无休止的拖延、内疚和混乱循环中……

2.3 复杂任务

将复杂任务分解为子任务,并检查 Claude 是否理解提示词。

迭代式地补充提示词

通过重复说明、生成示例等方式提高提示词的可靠性。


👉 野卡 | 一分钟注册,轻松订阅海外线上服务

上一篇 1天前
下一篇 1天前

相关推荐