1. Crear un modelo
Ollama API (Español)
  • Puntos finales
  • Convenciones
  • Generar una finalización
    • Visión general
    • Generar solicitud (Streaming)
      POST
    • Solicitud (sin transmisión)
      POST
    • Solicitud (con sufijo)
      POST
    • Solicitud (salidas estructuradas)
      POST
    • Solicitud (modo JSON)
      POST
    • Solicitud (con imágenes)
      POST
    • Solicitud (modo sin procesar)
      POST
    • Solicitud (Resultados reproducibles)
      POST
    • Generar solicitud (con opciones)
      POST
    • Cargar un modelo
      POST
    • Descargar un modelo
      POST
  • Generar una finalización de chat
    • Visión general
    • Solicitud de chat (transmisión)
      POST
    • Solicitud de chat (sin transmisión)
      POST
    • Solicitud de chat (salidas estructuradas)
      POST
    • Solicitud de chat (con historial)
      POST
    • Solicitud de chat (con imágenes)
      POST
    • Solicitud de chat (resultados reproducibles)
      POST
    • Solicitud de chat (con herramientas)
      POST
    • Cargar un modelo
      POST
    • Descargar un modelo
      POST
  • Crear un modelo
    • Visión general
    • Crear un nuevo modelo
      POST
    • Cuantizar un modelo
      POST
    • Crear un modelo desde GGUF
      POST
    • Crear un modelo desde un directorio de Safetensors
      POST
  • Comprobar si existe un blob
    • Visión general
  • Empujar una gota
    • Visión general
  • Lista de modelos locales
    • Visión general
    • Ejemplos
  • Mostrar información del modelo
    • Visión general
    • Ejemplos
  • Copiar un modelo
    • Visión general
    • Ejemplos
  • Eliminar un modelo
    • Visión general
    • Ejemplos
  • Extraer un modelo
    • Visión general
    • Ejemplos
  • Empujar un modelo
    • Visión general
  • Generar incrustaciones
    • Visión general
    • Ejemplos
    • Solicitud (entrada múltiple)
  • Lista de modelos en ejecución
    • Visión general
    • Ejemplos
  • Generar incrustación
    • Visión general
    • Ejemplos
  • Versión
    • Visión general
  1. Crear un modelo

Cuantizar un modelo

POST
http://localhost:11434/api/create
Cuantizar un modelo no cuantificado.

Request

Body Params application/json

Examples

Responses

🟢200Success
application/json
A stream of JSON objects is returned:
Body

Request Request Example
Shell
JavaScript
Java
Swift
curl --location --request POST 'http://localhost:11434/api/create' \
--header 'Content-Type: application/json' \
--data-raw '{
    "model": "llama3.1:quantized",
    "from": "llama3.1:8b-instruct-fp16",
    "quantize": "q4_K_M"
}'
Response Response Example
{"status":"quantizing F16 model to Q4_K_M"}
{"status":"creating new layer sha256:667b0c1932bc6ffc593ed1d03f895bf2dc8dc6df21db3042284a6f4416b06a29"}
{"status":"using existing layer sha256:11ce4ee3e170f6adebac9a991c22e22ab3f8530e154ee669954c4bc73061c258"}
{"status":"using existing layer sha256:0ba8f0e314b4264dfd19df045cde9d4c394a52474bf92ed6a3de22a4ca31a177"}
{"status":"using existing layer sha256:56bb8bd477a519ffa694fc449c2413c6f0e1d3b1c88fa7e3c9d88d3ae49d4dcb"}
{"status":"creating new layer sha256:455f34728c9b5dd3376378bfb809ee166c145b0b4c1f1a6feca069055066ef9a"}
{"status":"writing manifest"}
{"status":"success"}
Modified at 2025-03-28 02:45:54
Previous
Crear un nuevo modelo
Next
Crear un modelo desde GGUF
Built with