1. Mostrar información del modelo
Ollama API (Español)
  • Puntos finales
  • Convenciones
  • Generar una finalización
    • Visión general
    • Generar solicitud (Streaming)
      POST
    • Solicitud (sin transmisión)
      POST
    • Solicitud (con sufijo)
      POST
    • Solicitud (salidas estructuradas)
      POST
    • Solicitud (modo JSON)
      POST
    • Solicitud (con imágenes)
      POST
    • Solicitud (modo sin procesar)
      POST
    • Solicitud (Resultados reproducibles)
      POST
    • Generar solicitud (con opciones)
      POST
    • Cargar un modelo
      POST
    • Descargar un modelo
      POST
  • Generar una finalización de chat
    • Visión general
    • Solicitud de chat (transmisión)
      POST
    • Solicitud de chat (sin transmisión)
      POST
    • Solicitud de chat (salidas estructuradas)
      POST
    • Solicitud de chat (con historial)
      POST
    • Solicitud de chat (con imágenes)
      POST
    • Solicitud de chat (resultados reproducibles)
      POST
    • Solicitud de chat (con herramientas)
      POST
    • Cargar un modelo
      POST
    • Descargar un modelo
      POST
  • Crear un modelo
    • Visión general
    • Crear un nuevo modelo
      POST
    • Cuantizar un modelo
      POST
    • Crear un modelo desde GGUF
      POST
    • Crear un modelo desde un directorio de Safetensors
      POST
  • Comprobar si existe un blob
    • Visión general
  • Empujar una gota
    • Visión general
  • Lista de modelos locales
    • Visión general
    • Ejemplos
  • Mostrar información del modelo
    • Visión general
    • Ejemplos
      POST
  • Copiar un modelo
    • Visión general
    • Ejemplos
  • Eliminar un modelo
    • Visión general
    • Ejemplos
  • Extraer un modelo
    • Visión general
    • Ejemplos
  • Empujar un modelo
    • Visión general
  • Generar incrustaciones
    • Visión general
    • Ejemplos
    • Solicitud (entrada múltiple)
  • Lista de modelos en ejecución
    • Visión general
    • Ejemplos
  • Generar incrustación
    • Visión general
    • Ejemplos
  • Versión
    • Visión general
  1. Mostrar información del modelo

Ejemplos

POST
http://localhost:11434/api/show

Request

Body Params application/json

Examples

Responses

🟢200Success
application/json
Body

Request Request Example
Shell
JavaScript
Java
Swift
curl --location --request POST 'http://localhost:11434/api/show' \
--header 'Content-Type: application/json' \
--data-raw '{
    "model": "bert-base-chinese",
    "files": {
        "config.json": "a1b2c3d4e5f6",
        "generation_config.json": "b2c3d4e5f6g7",
        "special_tokens_map.json": "c3d4e5f6g7h8",
        "tokenizer.json": "d4e5f6g7h8i9",
        "tokenizer_config.json": "e5f6g7h8i9j0",
        "model.safetensors": "f6g7h8i9j0k1"
    }
}'
Response Response Example
{
  "modelfile": "# Modelfile generated by \"ollama show\"\n# To build a new Modelfile based on this one, replace the FROM line with:\n# FROM llava:latest\n\nFROM /Users/matt/.ollama/models/blobs/sha256:200765e1283640ffbd013184bf496e261032fa75b99498a9613be4e94d63ad52\nTEMPLATE \"\"\"{{ .System }}\nUSER: {{ .Prompt }}\nASSISTANT: \"\"\"\nPARAMETER num_ctx 4096\nPARAMETER stop \"</s>\"\nPARAMETER stop \"USER:\"\nPARAMETER stop \"ASSISTANT:\"",
  "parameters": "num_keep                       24\nstop                           \"<|start_header_id|>\"\nstop                           \"<|end_header_id|>\"\nstop                           \"<|eot_id|>\"",
  "template": "{{ if .System }}<|start_header_id|>system<|end_header_id|>\n\n{{ .System }}<|eot_id|>{{ end }}{{ if .Prompt }}<|start_header_id|>user<|end_header_id|>\n\n{{ .Prompt }}<|eot_id|>{{ end }}<|start_header_id|>assistant<|end_header_id|>\n\n{{ .Response }}<|eot_id|>",
  "details": {
    "parent_model": "",
    "format": "gguf",
    "family": "llama",
    "families": [
      "llama"
    ],
    "parameter_size": "8.0B",
    "quantization_level": "Q4_0"
  },
  "model_info": {
    "general.architecture": "llama",
    "general.file_type": 2,
    "general.parameter_count": 8030261248,
    "general.quantization_version": 2,
    "llama.attention.head_count": 32,
    "llama.attention.head_count_kv": 8,
    "llama.attention.layer_norm_rms_epsilon": 0.00001,
    "llama.block_count": 32,
    "llama.context_length": 8192,
    "llama.embedding_length": 4096,
    "llama.feed_forward_length": 14336,
    "llama.rope.dimension_count": 128,
    "llama.rope.freq_base": 500000,
    "llama.vocab_size": 128256,
    "tokenizer.ggml.bos_token_id": 128000,
    "tokenizer.ggml.eos_token_id": 128009,
    "tokenizer.ggml.merges": [],
    "tokenizer.ggml.model": "gpt2",
    "tokenizer.ggml.pre": "llama-bpe",
    "tokenizer.ggml.token_type": [],
    "tokenizer.ggml.tokens": []
  }
}
Modified at 2025-03-28 02:50:11
Previous
Visión general
Next
Visión general
Built with