1. Generar una finalización de chat
Ollama API (Español)
  • Puntos finales
  • Convenciones
  • Generar una finalización
    • Visión general
    • Generar solicitud (Streaming)
      POST
    • Solicitud (sin transmisión)
      POST
    • Solicitud (con sufijo)
      POST
    • Solicitud (salidas estructuradas)
      POST
    • Solicitud (modo JSON)
      POST
    • Solicitud (con imágenes)
      POST
    • Solicitud (modo sin procesar)
      POST
    • Solicitud (Resultados reproducibles)
      POST
    • Generar solicitud (con opciones)
      POST
    • Cargar un modelo
      POST
    • Descargar un modelo
      POST
  • Generar una finalización de chat
    • Visión general
    • Solicitud de chat (transmisión)
      POST
    • Solicitud de chat (sin transmisión)
      POST
    • Solicitud de chat (salidas estructuradas)
      POST
    • Solicitud de chat (con historial)
      POST
    • Solicitud de chat (con imágenes)
      POST
    • Solicitud de chat (resultados reproducibles)
      POST
    • Solicitud de chat (con herramientas)
      POST
    • Cargar un modelo
      POST
    • Descargar un modelo
      POST
  • Crear un modelo
    • Visión general
    • Crear un nuevo modelo
      POST
    • Cuantizar un modelo
      POST
    • Crear un modelo desde GGUF
      POST
    • Crear un modelo desde un directorio de Safetensors
      POST
  • Comprobar si existe un blob
    • Visión general
  • Empujar una gota
    • Visión general
  • Lista de modelos locales
    • Visión general
    • Ejemplos
  • Mostrar información del modelo
    • Visión general
    • Ejemplos
  • Copiar un modelo
    • Visión general
    • Ejemplos
  • Eliminar un modelo
    • Visión general
    • Ejemplos
  • Extraer un modelo
    • Visión general
    • Ejemplos
  • Empujar un modelo
    • Visión general
  • Generar incrustaciones
    • Visión general
    • Ejemplos
    • Solicitud (entrada múltiple)
  • Lista de modelos en ejecución
    • Visión general
    • Ejemplos
  • Generar incrustación
    • Visión general
    • Ejemplos
  • Versión
    • Visión general
  1. Generar una finalización de chat

Cargar un modelo

POST
http://localhost:11434/api/chat
Si la matriz de mensajes está vacía, el modelo se cargará en la memoria.

Request

Body Params application/json

Examples

Responses

🟢200Success
application/json
Body

Request Request Example
Shell
JavaScript
Java
Swift
curl --location --request POST 'http://localhost:11434/api/chat' \
--header 'Content-Type: application/json' \
--data-raw '{
    "model": "llama3.2",
    "messages": [
        {
            "role": "user",
            "content": "Hello"
        }
    ]
}'
Response Response Example
{
  "model": "llama3.2",
  "created_at":"2024-09-12T21:17:29.110811Z",
  "message": {
    "role": "assistant",
    "content": ""
  },
  "done_reason": "load",
  "done": true
}
Modified at 2025-03-28 02:24:12
Previous
Solicitud de chat (con herramientas)
Next
Descargar un modelo
Built with