Ollama 官方中文文档
  1. 创建模型
Ollama 官方中文文档
  • 接口 Endpoints
  • 规范 Conventions
  • 生成补全
    • 概括
    • 流式生成请求(Streaming)
      POST
    • 非流式生成请求(No Streaming)
      POST
    • 带后缀的生成请求(with Suffix)
      POST
    • 结构化输出请求(Structured Outputs)
      POST
    • JSON 模式请求(JSON Mode)
      POST
    • 带图像的生成请求(with Images)
      POST
    • 原始模式请求(Raw Mode)
      POST
    • 可复现输出请求(Reproducible Outputs)
      POST
    • 参数化生成请求(with Options)
      POST
    • 加载模型
      POST
    • 卸载模型
      POST
  • 生成对话补全
    • 概括
    • 流式对话请求(Streaming)
      POST
    • 非流式对话请求(No Streaming)
      POST
    • 结构化输出对话请求(Structured Outputs)
      POST
    • 带历史上下文的对话请求(With History)
      POST
    • 带图像的对话请求(with Images)
      POST
    • 可复现输出的对话请求(Reproducible Outputs)
      POST
    • 支持工具调用的对话请求(with Tools)
      POST
    • 加载模型
      POST
    • 卸载模型
      POST
  • 创建模型
    • 概括
    • 创建新模型
      POST
    • 量化模型
      POST
    • 从 GGUF 文件创建模型
      POST
    • 从 Safetensors 目录创建模型
      POST
  • 检查 Blob 是否存在
    • 概括
  • 推送 Blob
    • 概括
  • 列出本地模型
    • 概括
    • 示例
  • 显示模型详情
    • 概括
    • 示例
  • 复制模型
    • 概括
    • 示例
  • 删除模型
    • 概括
    • 示例
  • 拉取模型
    • 概括
    • 示例
  • 推送模型
    • 概括
  • 生成嵌入向量
    • 概括
    • 示例
    • 多输入请求(Multiple Input)
  • 列出运行中模型
    • 概括
    • 示例
  • 生成单个嵌入向量
    • 概括
    • 示例
  • 版本信息
    • 概括
  1. 创建模型

概括

 POST /api/create
从以下来源创建一个模型:
另一个模型;
一个 safetensors 目录;或者
一个 GGUF 文件。
如果要从 safetensors 目录或 GGUF 文件创建模型,您必须为每个文件创建一个 Blob,然后在 files 字段中使用与每个 Blob 关联的文件名和 SHA256 摘要。

参数#

model: 要创建的模型的名称
from: (可选) 要从中创建新模型的现有模型的名称
files: (可选) 文件名到 Blob 的 SHA256 摘要的字典,用于创建模型
adapters: (可选) LORA 适配器的文件名到 Blob 的 SHA256 摘要的字典
template: (可选) 模型的提示模板
license: (可选) 包含模型许可的一个字符串或字符串列表
system: (可选) 包含模型的系统提示的字符串
parameters: (可选) 模型的参数字典(有关参数列表,请参阅 Modelfile)
messages: (可选) 用于创建对话的消息对象列表
stream: (可选) 如果为 false,则响应将作为单个响应对象返回,而不是对象流
quantize (可选): 量化一个非量化的模型(例如 float16)

量化类型#

类型推荐
q2_K
q3_K_L
q3_K_M
q3_K_S
q4_0
q4_1
q4_K_M*
q4_K_S
q5_0
q5_1
q5_K_M
q5_K_S
q6_K
q8_0*
修改于 2025-03-17 08:20:56
上一页
卸载模型
下一页
创建新模型
Built with