Requerimientos de RAM para los diferentes modelos LLM de Ollama
Si queremos montar un servidor de inteligencia artificial donde corramos Ollama + Open WebUI y basemos todo el procesamiento en un procesador (no en una tarjeta gráfica), estos son los requerimientos de memoria RAM necesarios para cada modelo LLM (sólo he puesto los más interesantes): llama3 8b: x GB de RAM. llama3 8b-instruct-fp16: x GB […]