Requerimientos de VRAM para los diferentes modelos LLM de Ollama
Si queremos montar un servidor de inteligencia artificial donde corramos Ollama + Open WebUI y basemos todo el procesamiento en una tarjeta gráfica, estos son los requerimientos de memoria de video necesarios para cada modelo LLM (sólo he puesto los más interesantes): llama3 8b: 5,6 GB de VRAM. llama3 8b-instruct-fp16: 15,6 GB de VRAM. llama3 […]