来源与进度
- 来源:https://console.anthropic.com/docs
- 翻译:Claude
- 校对:ALLinLLM
- 翻译进度:31%
1 介绍
1.1 开始使用 Claude
什么是 Claude?
Claude 是由 Anthropic 创建的大型语言模型 (LLM)。它经过训练可以以会话方式成为一位有帮助的助手。
与 Claude 交互的几种方式:
– 网页端 – 通过 Anthropic 控制台的聊天界面与 Claude 对话。
– API – 允许将 Claude 集成到您的产品中,为客户提供服务。
无论通过哪种方式,与 Claude 的交互方式基本相同,这使得您可以先在网页控制台中试验,然后将这些方式应用到 API 中。
获取 Claude 访问权限
Anthropic 正在谨慎地推出 Claude,以确保其安全性和可扩展性。我们正与选定的合作伙伴合作,如果您有兴趣成为合作伙伴,可以提交申请。
与 Claude 的第一次聊天
Claude 的响应效果取决于您提问的方式。以下是一些建议:
– 像对待外包员工一样与 Claude 交谈
直接明确地表达您的需求,例如:“写一篇专家级的激光光学技术摘要。”
– Claude“记得”整个线程
通过 Slack 或网页界面与 Claude 交互时,它可以记住当前线程中的内容,但无法跨线程记忆。
0
需要记住的限制
- 角色扮演:Claude 正在扮演一个助手角色,可能会错误地报告能力。
- 计算错误:在复杂算术和推理方面常出错。
- 幻觉:可能会编造不存在的信息。
- 无互联网访问:无法实时获取信息。
- 训练数据时限:数据可能早于两年前。
- 无法采取行动:仅能提供建议。
术语词典
- 上下文窗口:模型可以回顾和参考的文本量。
- 微调:使用额外数据进一步训练模型。
- HHH:有帮助、诚实、无害的目标。
- LLM:大型语言模型。
- RLHF:人工反馈强化学习。
- 温度:控制模型预测随机性的参数。
- Token:语言模型的最小“原子”单位。
2 提示词(Prompt)设计
2.1 设计提示词
将 Claude 想象成一名新雇佣的承包商,给它具体明确的指示。
提示词与响应
- 提示词:通过问题或指示引发相关响应,例如:
人类:为什么天空是蓝色的?
助手:
- 响应:Claude 的回复称为“响应”。
“把内容喂到 Claude 的嘴里”
通过 人类
/助手
样式进行持续对话,例如:
人类:请选择一个随机水果。
助手:这里是我为您随机选择的水果:
番石榴。
人类:这种水果的颜色是什么?
助手:
提示长度
Claude 当前上下文窗口为 6500 单词/8000 token/28000 Unicode 字符。
2.2 避免歧义
写提示词时,想象正在与一个九岁小孩交谈,明确描述需求并提供示例。
明确描述需求
- 反例:纽约有多大?
- 正例:相比其他州,纽约州的面积和人口有多大?
提供示例
- 反例:人类:想一个护士的有趣集体名词。
- 正例:提供示例或编造对话历史。
描述语调
- 反例:人类:毕达哥拉斯定理是什么?
- 正例:人类:在我们接下来的对话中,我希望您以数学老师的身份行事……
使用 XML 标记
用标签定义结构,例如:
人类:这里有一篇用
2.3 复杂任务
将复杂任务分解为子任务,并检查 Claude 是否理解提示词。
迭代式地补充提示词
通过重复说明、生成示例等方式提高提示词的可靠性。