Ollama 官方中文文档
  1. 生成嵌入向量
Ollama 官方中文文档
  • 接口 Endpoints
  • 规范 Conventions
  • 生成补全
    • 概括
    • 流式生成请求(Streaming)
      POST
    • 非流式生成请求(No Streaming)
      POST
    • 带后缀的生成请求(with Suffix)
      POST
    • 结构化输出请求(Structured Outputs)
      POST
    • JSON 模式请求(JSON Mode)
      POST
    • 带图像的生成请求(with Images)
      POST
    • 原始模式请求(Raw Mode)
      POST
    • 可复现输出请求(Reproducible Outputs)
      POST
    • 参数化生成请求(with Options)
      POST
    • 加载模型
      POST
    • 卸载模型
      POST
  • 生成对话补全
    • 概括
    • 流式对话请求(Streaming)
      POST
    • 非流式对话请求(No Streaming)
      POST
    • 结构化输出对话请求(Structured Outputs)
      POST
    • 带历史上下文的对话请求(With History)
      POST
    • 带图像的对话请求(with Images)
      POST
    • 可复现输出的对话请求(Reproducible Outputs)
      POST
    • 支持工具调用的对话请求(with Tools)
      POST
    • 加载模型
      POST
    • 卸载模型
      POST
  • 创建模型
    • 概括
    • 创建新模型
    • 量化模型
    • 从 GGUF 文件创建模型
    • 从 Safetensors 目录创建模型
  • 检查 Blob 是否存在
    • 概括
  • 推送 Blob
    • 概括
  • 列出本地模型
    • 概括
    • 示例
  • 显示模型详情
    • 概括
    • 示例
  • 复制模型
    • 概括
    • 示例
  • 删除模型
    • 概括
    • 示例
  • 拉取模型
    • 概括
    • 示例
  • 推送模型
    • 概括
  • 生成嵌入向量
    • 概括
    • 示例
      POST
    • 多输入请求(Multiple Input)
      POST
  • 列出运行中模型
    • 概括
    • 示例
  • 生成单个嵌入向量
    • 概括
    • 示例
  • 版本信息
    • 概括
  1. 生成嵌入向量

概括

`POST /api/embed`
从模型生成嵌入向量 (embeddings)。

参数#

model: 用于生成嵌入向量的模型名称
input: 要生成嵌入向量的文本或文本列表
高级参数:
truncate: 是否截断每个输入的末尾,以适应上下文长度。如果为 false 且超过上下文长度,则返回错误。默认为 true
options: 模型文件的文档中列出的其他模型参数,例如 temperature (温度)。参见 Modelfile 获取有效的参数和值。
keep_alive: 控制模型在请求后保持加载到内存中的时间(默认值:5m)
修改于 2025-03-18 03:43:04
上一页
概括
下一页
示例
Built with