让您的服务器从 LLM 请求补全
sampling/createMessage
请求messages
数组包含要发送给 LLM 的对话历史。每条消息包含:
role
:要么是 “user”,要么是 “assistant”content
:消息内容,可以是:
text
字段的文本内容data
(base64)和 mimeType
字段的图像内容modelPreferences
对象允许服务器指定其模型选择偏好:
hints
:模型名称建议数组,客户端可以使用它来选择适当的模型:
name
:可以匹配完整或部分模型名称的字符串(例如 “claude-3”、“sonnet”)costPriority
:最小化成本的重要性speedPriority
:低延迟响应的重要性intelligencePriority
:高级模型能力的重要性systemPrompt
字段允许服务器请求特定的系统提示。客户端可以修改或忽略它。
includeContext
参数指定要包含什么 MCP 上下文:
"none"
:不包含额外上下文"thisServer"
:包含来自请求服务器的上下文"allServers"
:包含来自所有连接的 MCP 服务器的上下文temperature
:控制随机性(0.0 到 1.0)maxTokens
:生成的最大令牌数stopSequences
:停止生成的序列数组metadata
:额外的提供商特定参数includeContext
包含相关上下文