Lageplan
Drucken
Betrug melden
24 GB sind 24 GB.
Auch die neueren High End
Gaming Grafikkarten wie 3090/4090 haben nicht mehr VRam zur Verfuegung fuer z.B. LLM Inference Betrieb.
NVIDIA Maxwell Generation mit 24 GB VRam fuer lokalen Inference Betrieb fuer ein Large Language Model im GGUF Format.
Achtung: nicht fuer Spiele: es hat KEINERLEI IO Ports fuer Monitore. Es handelt sich um eine Karte fuer das Datencenter.
👑 Besuche jetzt unsere neue Community