LM Studio logotyp och AI-gränssnitt

Köra LM Studio som lokal server – steg för steg

Senast uppdaterad: Februari 2025

Den här guiden visar hur du installerar LM Studio och startar dess inbyggda server för att använda lokala språkmodeller via API. Med LM Studio kan du köra privata AI-modeller helt offline på din egen dator.

Förutsättningar

Installera LM Studio

Installera LM Studio genom att först besöka den officiella webbplatsen för att ladda ner den senaste versionen av programmet. Kontrollera att du väljer rätt version baserat på ditt operativsystem, eftersom LM Studio erbjuder separata installationsfiler för Windows, macOS och Linux.

Efter nedladdning, öppna den nedladdade filen och följ installationsguiden som visas på skärmen. Om du använder Windows kan du behöva godkänna en användarkontokontroll (UAC)-prompt för att tillåta installationen. För macOS-användare kan det krävas att du öppnar inställningarna för säkerhet och integritet för att godkänna öppnandet av appen om den inte är från en identifierad utvecklare.

Linux-användare kan behöva köra vissa terminalkommandon för att installera programmet, vilket ofta står tydligt beskrivet i medföljande instruktioner. När installationen är klar, öppna LM Studio och slutför den initiala setup-processen, där du kan välja språk, inställningar och eventuella tilläggsmoduler för att optimera programmet enligt dina behov.

Ladda ner en modell

Steg för att ladda ner din första AI-modell:

  1. Starta LM Studio - Öppna programmet efter installationen
  2. Gå till "Models" - Klicka på Models-fliken i huvudgränssnittet
  3. Välj en modell - För nybörjare rekommenderas Llama 3.2 (3B) eller Mistral 7B. Dessa modeller är lätta att köra men ger ändå bra resultat
  4. Klicka "Download" - Nedladdningen startar automatiskt. En 7B-modell är ca 4-8 GB
  5. Vänta på installation - LM Studio installerar modellen automatiskt när nedladdningen är klar
  6. Verifiera installationen - Testa modellen genom att ställa en enkel fråga

Tips: Börja med en mindre modell (3B-7B parametrar) för att testa systemet innan du laddar ner större modeller som kräver mer RAM och diskutrymme.

Starta serverläget

För att aktivera den lokala serverfunktionen i LM Studio måste du antingen välja alternativet "Lokal server" eller "Starta server" från gränssnittet. Detta initierar inställningarna för den lokala servern, vilket gör att programvaran kan köras lokalt på din maskin utan att en internetanslutning krävs.

Programvaran använder vanligtvis standardportnummer för att upprätta kommunikation. Vanligtvis är standardportarna inställda på antingen 1234 eller 8080, beroende på vilken specifika version av LM Studio du använder.

Testa API

För att verifiera att din lokala LM Studio server fungerar korrekt, öppna en terminal och kör följande kommando:

curl http://127.0.0.1:1234/v1/models

Om servern fungerar korrekt kommer du att få en lista över tillgängliga modeller i JSON-format.

Säkerhet

Felsökning

Klart! LM Studio kör nu som lokal LLM-server och du kan börja använda privata AI-modeller offline.

Vanliga frågor om LM Studio

Hur mycket RAM behövs för LM Studio?

Minimum är 8 GB RAM, men för bästa prestanda rekommenderas 16 GB eller mer. Större modeller (13B+ parametrar) kräver ofta 32 GB RAM eller mer. En 7B-modell fungerar bra med 8-16 GB RAM.

Kan jag köra LM Studio utan GPU?

Ja, LM Studio fungerar utan GPU genom att använda CPU-beräkning. Dock blir svaren betydligt långsammare. Med GPU (NVIDIA eller Apple Silicon) får du mycket snabbare svar, särskilt för större modeller.

Vilken modell ska jag välja som nybörjare?

För nybörjare rekommenderas Llama 3.2 (3B) eller Mistral 7B. Dessa är små nog att köra på de flesta datorer men ger ändå bra resultat. Börja med en 3B-7B modell innan du testar större.

Är LM Studio gratis att använda?

Ja, LM Studio är helt gratis att ladda ner och använda. Du betalar ingenting för programvaran eller för att köra AI-modeller lokalt på din dator.

Fungerar LM Studio på svenska?

LM Studio själv är på engelska, men många modeller stödjer svenska. Llama 3 och Mistral-modeller kan hantera svenska frågor och svar relativt bra, även om engelska ger bäst resultat.

Hur länge tar det att ladda ner en modell?

Det beror på modellens storlek och din internetuppkoppling. En 7B-modell är ca 4-8 GB och tar 5-30 minuter beroende på hastighet. Större modeller (13B+) kan ta över en timme.

Kan jag använda LM Studio offline?

Ja! När du väl laddat ner en modell fungerar LM Studio helt offline. Du behöver bara internet för att ladda ner modeller första gången. Därefter körs allt lokalt på din dator.

Vilka operativsystem stöds?

LM Studio fungerar på Windows 10/11, macOS (Intel och Apple Silicon) samt Linux (Ubuntu, Debian, Fedora m.fl.). Både 64-bitars x86 och ARM-arkitektur stöds.

Är mina konversationer privata i LM Studio?

Ja, helt och hållet. Allt körs lokalt på din dator och ingen data skickas till internet. Till skillnad från ChatGPT lagras ingenting i molnet, vilket gör LM Studio perfekt för känslig information.

Hur uppdaterar jag LM Studio till senaste versionen?

LM Studio meddelar automatiskt när en ny version finns tillgänglig. Klicka på uppdateringsmeddelandet eller ladda ner senaste versionen från den officiella webbplatsen. Dina nedladdade modeller påverkas inte av uppdateringar.