Erstellt: 27. Juli 2025 | Kategorie: Software | Tags: Ollama, LLM, AI, OpenWebUI

Auswahl des besten Ollama Models

Will man sich mit KI bzw. LLMs beschäftigen und installiert Ollama mit OpenWebUI, muss dann ein Modell herunter geladen werden. Auf der Ollama Webseite gibt es eine riesige Auswahl (Stand 27.05.2025 in Summe 6512 Modelle).

Abgesehen vom Zweck stellt man sich da die Frage, welche Modelle (meistens ist das Ziel ein Modell zu wählen, welches möglichst viele Parameter hat um die bestmögliche Qualität zu erhalten) komplett in den VRAM der verwendeten GPU geladen werden können um beste Performance zu erzielen.

Viele Modelle gibt es in unterschiedlichen Größen, kleine Modelle für GPUs die weniger Speicher haben als auch große Modelle für GPUs die mehr Speicher haben.

Weil das bei der großen Auswahl etwas schwierig ist, da die Ollama Webseite leider keine passende Möglichkeit bietet, habe ich eine Liste aller von der Ollama Webseite verfügbaren Modelle erstellt. In der Liste wünschte ich mir eine Filtermöglichkeit zu haben, wieviel VRAM die verwendete GPU hat um Modelle, die sich nicht im VRAM ausgehen auszublenden. Dann wollte ich von der Modellfamilie das größte Modell angezeigt bekommen. Diese Liste dann noch mit den Spalten Name, Parameteranzahl, Quantisierung und Dateigröße. Und natürlich sollte das auch sortierbar sein.

Das ganze sollte auch dynamisch und immer aktuell sein, falls neue Modelle dazu kommen. Das Ergebnis davon habe ich gleich online verfügbar gemacht: Liste von Ollama Modellen