1. Generar una finalización de chat
Ollama API (Español)
  • Puntos finales
  • Convenciones
  • Generar una finalización
    • Visión general
    • Generar solicitud (Streaming)
      POST
    • Solicitud (sin transmisión)
      POST
    • Solicitud (con sufijo)
      POST
    • Solicitud (salidas estructuradas)
      POST
    • Solicitud (modo JSON)
      POST
    • Solicitud (con imágenes)
      POST
    • Solicitud (modo sin procesar)
      POST
    • Solicitud (Resultados reproducibles)
      POST
    • Generar solicitud (con opciones)
      POST
    • Cargar un modelo
      POST
    • Descargar un modelo
      POST
  • Generar una finalización de chat
    • Visión general
    • Solicitud de chat (transmisión)
      POST
    • Solicitud de chat (sin transmisión)
      POST
    • Solicitud de chat (salidas estructuradas)
      POST
    • Solicitud de chat (con historial)
      POST
    • Solicitud de chat (con imágenes)
      POST
    • Solicitud de chat (resultados reproducibles)
      POST
    • Solicitud de chat (con herramientas)
      POST
    • Cargar un modelo
      POST
    • Descargar un modelo
      POST
  • Crear un modelo
    • Visión general
    • Crear un nuevo modelo
      POST
    • Cuantizar un modelo
      POST
    • Crear un modelo desde GGUF
      POST
    • Crear un modelo desde un directorio de Safetensors
      POST
  • Comprobar si existe un blob
    • Visión general
  • Empujar una gota
    • Visión general
  • Lista de modelos locales
    • Visión general
    • Ejemplos
  • Mostrar información del modelo
    • Visión general
    • Ejemplos
  • Copiar un modelo
    • Visión general
    • Ejemplos
  • Eliminar un modelo
    • Visión general
    • Ejemplos
  • Extraer un modelo
    • Visión general
    • Ejemplos
  • Empujar un modelo
    • Visión general
  • Generar incrustaciones
    • Visión general
    • Ejemplos
    • Solicitud (entrada múltiple)
  • Lista de modelos en ejecución
    • Visión general
    • Ejemplos
  • Generar incrustación
    • Visión general
    • Ejemplos
  • Versión
    • Visión general
  1. Generar una finalización de chat

Visión general

POST /api/chat
Genera el siguiente mensaje en un chat con un modelo proporcionado. Este es un endpoint de streaming, por lo que habrá una serie de respuestas. El streaming puede desactivarse usando "stream": false. El objeto de respuesta final incluirá estadísticas y datos adicionales de la solicitud.

Parámetros#

model: (obligatorio) el nombre del modelo
messages: los mensajes del chat, esto se puede usar para mantener una memoria del chat
tools: lista de herramientas en JSON para que el modelo las use si es compatible
El objeto message tiene los siguientes campos:
role: el rol del mensaje, ya sea system, user, assistant o tool
content: el contenido del mensaje
images (opcional): una lista de imágenes para incluir en el mensaje (para modelos multimodales como llava)
tool_calls (opcional): una lista de herramientas en JSON que el modelo quiere usar
Parámetros avanzados (opcional):
format: el formato para devolver una respuesta. El formato puede ser json o un esquema JSON.
options: parámetros adicionales del modelo listados en la documentación para el Modelfile como temperature
stream: si es false, la respuesta se devolverá como un único objeto de respuesta, en lugar de un flujo de objetos
keep_alive: controla cuánto tiempo permanecerá el modelo cargado en la memoria después de la solicitud (predeterminado: 5m)

Salidas estructuradas#

Las salidas estructuradas son compatibles al proporcionar un esquema JSON en el parámetro format. El modelo generará una respuesta que coincida con el esquema. Consulte el ejemplo Chat request (Structured outputs) a continuación.
Modified at 2025-03-14 09:20:53
Previous
Descargar un modelo
Next
Solicitud de chat (transmisión)
Built with