Kapitel 2: Hårdvarukrav och planering

Vilken dator behöver du för att köra lokal AI? Du kan troligtvis komma igång med datorn du har, men för bästa prestanda behöver du förstå AI-modellers parametrar och hur grafikminne påverkar prestanda. Vi guidar dig genom allt från budget-byggen till professionella lösningar.

En av de vanligaste frågorna vi får är: "Vilken dator behöver jag för att köra lokal AI?" Svaret är både enklare och mer komplext än du kanske tror. Sanningen är att du troligtvis redan kan komma igång med den dator du har, men för att få riktigt bra prestanda behöver du förstå några grundläggande principer.

Förstå AI-modeller och parametrar

Innan vi pratar hårdvara måste vi förstå vad som gör AI-modeller så krävande. En AI-modell består av miljontals eller miljarder små "parametrar" – siffror som bestämmer hur modellen tänker och svarar. Ju fler parametrar, desto smartare modell, men också desto mer minne krävs.

Tänk dig en gigantisk uppslagsbok. En bok med 1 000 sidor tar mindre plats än en med 10 000 sidor, men den större boken innehåller mer information. På samma sätt tar en modell med 7 miljarder parametrar mindre plats än en med 70 miljarder parametrar, men den större modellen kan hantera mer komplexa uppgifter.

Vanliga modellstorlekar:

  • 7-8 miljarder parametrar: Bra för enkel chatt och grundläggande uppgifter
  • 14 miljarder parametrar: Kan hantera verktyg och mer komplexa instruktioner
  • 32-34 miljarder parametrar: Imponerande prestanda, närmar sig molntjänster
  • 70+ miljarder parametrar: Topprestanda, men kräver kraftfull hårdvara

Grafikkort – hjärtat i din AI-dator

Det som verkligen spelar roll för AI-prestanda är ditt grafikkort (GPU). Medan din vanliga processor (CPU) är bra på att göra många olika saker i sekvens, är grafikkortet specialist på att göra många enkla beräkningar samtidigt – precis vad AI-modeller behöver.

Det avgörande måttet är VRAM – grafikminnet. Det här är det snabba minne som grafikkorten använder för att lagra AI-modellen medan den arbetar.

Vad klarar olika grafikkort?

4-6 GB VRAM (t.ex. GTX 1660, RTX 3060)

  • Kan köra 7 miljarders modeller bekvämt
  • Hastighet: 20-30 ord per sekund
  • Perfekt för: Enkel chatt, textsammanfattning, översättning

8-12 GB VRAM (t.ex. RTX 3060 Ti, RTX 4060 Ti)

  • Kan köra 7-14 miljarders modeller
  • Hastighet: 25-40 ord per sekund
  • Perfekt för: AI-agenter, automatisering, grundläggande verktygsanvändning

16-24 GB VRAM (t.ex. RTX 3090, RTX 4090)

  • Kan köra 32 miljarders modeller utan problem
  • Hastighet: 15-25 ord per sekund för större modeller
  • Perfekt för: Avancerade agenter, komplex analys, professionell användning

48+ GB VRAM (professionella kort)

  • Kan köra modeller med 70+ miljarder parametrar
  • Hastighet: 10-20 ord per sekund för största modellerna
  • Perfekt för: Företagsanvändning, forskning, extremt komplexa uppgifter

En viktig genväg: Kvantisering

Här kommer en stor överraskning: du behöver inte köra modeller i full kvalitet. Genom något som kallas "kvantisering" kan vi komprimera modeller så de tar mycket mindre plats utan att förlora särskilt mycket prestanda.

Tänk på det som skillnaden mellan en HD-film och en komprimerad version för streaming. Den komprimerade versionen tar mindre plats men ser fortfarande bra ut.

Kvantiseringsnivåer:

  • Q4: En fjärdedel av originalstorlek, fortfarande utmärkt kvalitet (rekommenderas)
  • Q8: Hälften av originalstorlek, nästan perfekt kvalitet
  • Q2: En åttondel av originalstorlek, märkbart försämrad kvalitet

Med Q4-kvantisering kan en 32 miljarders modell som normalt skulle kräva 64 GB VRAM istället köras på bara 16 GB. Det här är varför lokal AI har blivit så tillgängligt.

RAM och övrig hårdvara

Förutom grafikkort behöver du tillräckligt med vanligt RAM-minne:

Minimum: 16 GB för grundläggande användning
Rekommenderat: 32 GB för bekväm användning
Optimalt: 64+ GB för avancerade uppställningar

Processorn (CPU) är mindre kritisk, men en modern quad-core eller bättre rekommenderas. Lagringsutrymme behöver du också – räkna med 50-100 GB för mjukvara och några modeller.

Budgetrekommendationer

Vi har tagit fram tre olika nivåer baserat på vad du vill spendera:

Budget: 15 000-20 000 kr

Målsättning: Komma igång med lokal AI utan att råna banken

  • RTX 4060 Ti (16 GB) eller RTX 3060 Ti (8 GB)
  • 32 GB RAM
  • Modern CPU (i5/Ryzen 5 eller bättre)
  • Klarar: 7-14 miljarders modeller bekvämt

Entusiast: 40 000-50 000 kr

Målsättning: Seriös AI-prestanda för professionell användning

  • RTX 4090 (24 GB) eller RTX 3090 (24 GB)
  • 64 GB RAM
  • Kraftfull CPU (i7/Ryzen 7)
  • Klarar: 32 miljarders modeller med hög hastighet

Professionell: 100 000+ kr

Målsättning: Topprestanda för företag och forskning

  • Två RTX 4090 eller professionella kort
  • 128 GB RAM
  • Toppmodern CPU
  • Klarar: 70+ miljarders modeller och flera samtidiga användare

Alternativ för Mac-användare

Äger du en Mac? Bra nyheter! Apples M-serie processorer har en speciell arkitektur som gör dem överraskande bra på AI. En Mac Studio med M2 Ultra och 128 GB "unified memory" kan konkurrera med många PC-uppställningar, även om hastigheten inte alltid når samma nivåer.

Mac-rekommendationer:

  • M2/M3 MacBook Pro (32 GB): 7-14 miljarders modeller
  • M2/M3 Mac Studio (64+ GB): 32 miljarders modeller
  • M2 Ultra Mac Studio (128 GB): 70 miljarders modeller

Testa innan du köper

Innan du investerar i ny hårdvara rekommenderar vi att du testar med det du har. Även en äldre dator kan köra mindre modeller, och det ger dig en känsla för vad lokal AI kan göra.

Du kan också använda molnbaserade testplattformar som OpenRouter eller Groq för att prova olika modellstorlekar och se vilken prestanda som känns tillräckligt bra för dina behov.

Framtidssäkring

AI-hårdvara utvecklas snabbt. Nya grafikkort blir kraftfullare och AI-modeller blir mer effektiva. Vårt råd:

  1. Köp inte mer än du behöver just nu – hårdvaran blir snabbt bättre och billigare
  2. Fokusera på VRAM – det är ofta den begränsande faktorn
  3. Tänk modulärt – välj en dator där du kan uppgradera grafikkort senare

Vad händer om du inte vill köpa hårdvara?

Inte redo att investera i en AI-dator än? Det finns alternativ:

Hybrid-ansats: Kör infrastrukturen lokalt (databas, användargränssnitt) men använd molnbaserade AI-modeller via API. Du får fortfarande mycket kontroll utan hårdvarukostnad.

Molnservrar: Hyr en kraftfull server per timme när du behöver den. Perfekt för experiment och projektarbete.

Gemensamma resurser: Dela en kraftfull AI-dator med kollegor eller använd företagets befintliga servrar.

Planera ditt nästa steg

Innan du går vidare, ta en stund att tänka igenom:

  • Vilken budget har du för AI-hårdvara?
  • Vilka uppgifter vill du att din AI ska klara?
  • Behöver du köra AI kontinuerligt eller bara ibland?
  • Finns det befintlig hårdvara du kan testa med först?

I nästa kapitel fördjupar vi oss i de tekniska koncept du behöver förstå för att få ut det mesta av din AI-hårdvara. Vi lovar att hålla det begripligt och praktiskt.

Innehållsförteckning