Ollama 官方中文文档
生成嵌入向量
复制页面
Ollama 官方中文文档
接口 Endpoints
规范 Conventions
生成补全
概括
流式生成请求(Streaming)
POST
非流式生成请求(No Streaming)
POST
带后缀的生成请求(with Suffix)
POST
结构化输出请求(Structured Outputs)
POST
JSON 模式请求(JSON Mode)
POST
带图像的生成请求(with Images)
POST
原始模式请求(Raw Mode)
POST
可复现输出请求(Reproducible Outputs)
POST
参数化生成请求(with Options)
POST
加载模型
POST
卸载模型
POST
生成对话补全
概括
流式对话请求(Streaming)
POST
非流式对话请求(No Streaming)
POST
结构化输出对话请求(Structured Outputs)
POST
带历史上下文的对话请求(With History)
POST
带图像的对话请求(with Images)
POST
可复现输出的对话请求(Reproducible Outputs)
POST
支持工具调用的对话请求(with Tools)
POST
加载模型
POST
卸载模型
POST
创建模型
概括
创建新模型
量化模型
从 GGUF 文件创建模型
从 Safetensors 目录创建模型
检查 Blob 是否存在
概括
推送 Blob
概括
列出本地模型
概括
示例
显示模型详情
概括
示例
复制模型
概括
示例
删除模型
概括
示例
拉取模型
概括
示例
推送模型
概括
生成嵌入向量
概括
示例
POST
多输入请求(Multiple Input)
POST
列出运行中模型
概括
示例
生成单个嵌入向量
概括
示例
版本信息
概括
生成嵌入向量
复制页面
概括
`POST /api/embed`
从模型生成嵌入向量 (embeddings)。
参数
#
model
: 用于生成嵌入向量的模型名称
input
: 要生成嵌入向量的文本或文本列表
高级参数:
truncate
: 是否截断每个输入的末尾,以适应上下文长度。如果为
false
且超过上下文长度,则返回错误。默认为
true
options
: 模型文件的文档中列出的其他模型参数,例如
temperature
(温度)。参见
Modelfile
获取有效的参数和值。
keep_alive
: 控制模型在请求后保持加载到内存中的时间(默认值:
5m
)
修改于
2025-03-18 03:43:04
上一页
概括
下一页
示例