Senast uppdaterad: Februari 2025
Den här guiden visar hur du installerar LM Studio och startar dess inbyggda server för att använda lokala språkmodeller via API. Med LM Studio kan du köra privata AI-modeller helt offline på din egen dator.
Installera LM Studio genom att först besöka den officiella webbplatsen för att ladda ner den senaste versionen av programmet. Kontrollera att du väljer rätt version baserat på ditt operativsystem, eftersom LM Studio erbjuder separata installationsfiler för Windows, macOS och Linux.
Efter nedladdning, öppna den nedladdade filen och följ installationsguiden som visas på skärmen. Om du använder Windows kan du behöva godkänna en användarkontokontroll (UAC)-prompt för att tillåta installationen. För macOS-användare kan det krävas att du öppnar inställningarna för säkerhet och integritet för att godkänna öppnandet av appen om den inte är från en identifierad utvecklare.
Linux-användare kan behöva köra vissa terminalkommandon för att installera programmet, vilket ofta står tydligt beskrivet i medföljande instruktioner. När installationen är klar, öppna LM Studio och slutför den initiala setup-processen, där du kan välja språk, inställningar och eventuella tilläggsmoduler för att optimera programmet enligt dina behov.
Tips: Börja med en mindre modell (3B-7B parametrar) för att testa systemet innan du laddar ner större modeller som kräver mer RAM och diskutrymme.
För att aktivera den lokala serverfunktionen i LM Studio måste du antingen välja alternativet "Lokal server" eller "Starta server" från gränssnittet. Detta initierar inställningarna för den lokala servern, vilket gör att programvaran kan köras lokalt på din maskin utan att en internetanslutning krävs.
Programvaran använder vanligtvis standardportnummer för att upprätta kommunikation. Vanligtvis är standardportarna inställda på antingen 1234 eller 8080, beroende på vilken specifika version av LM Studio du använder.
För att verifiera att din lokala LM Studio server fungerar korrekt, öppna en terminal och kör följande kommando:
curl http://127.0.0.1:1234/v1/models
Om servern fungerar korrekt kommer du att få en lista över tillgängliga modeller i JSON-format.
Klart! LM Studio kör nu som lokal LLM-server och du kan börja använda privata AI-modeller offline.
Minimum är 8 GB RAM, men för bästa prestanda rekommenderas 16 GB eller mer. Större modeller (13B+ parametrar) kräver ofta 32 GB RAM eller mer. En 7B-modell fungerar bra med 8-16 GB RAM.
Ja, LM Studio fungerar utan GPU genom att använda CPU-beräkning. Dock blir svaren betydligt långsammare. Med GPU (NVIDIA eller Apple Silicon) får du mycket snabbare svar, särskilt för större modeller.
För nybörjare rekommenderas Llama 3.2 (3B) eller Mistral 7B. Dessa är små nog att köra på de flesta datorer men ger ändå bra resultat. Börja med en 3B-7B modell innan du testar större.
Ja, LM Studio är helt gratis att ladda ner och använda. Du betalar ingenting för programvaran eller för att köra AI-modeller lokalt på din dator.
LM Studio själv är på engelska, men många modeller stödjer svenska. Llama 3 och Mistral-modeller kan hantera svenska frågor och svar relativt bra, även om engelska ger bäst resultat.
Det beror på modellens storlek och din internetuppkoppling. En 7B-modell är ca 4-8 GB och tar 5-30 minuter beroende på hastighet. Större modeller (13B+) kan ta över en timme.
Ja! När du väl laddat ner en modell fungerar LM Studio helt offline. Du behöver bara internet för att ladda ner modeller första gången. Därefter körs allt lokalt på din dator.
LM Studio fungerar på Windows 10/11, macOS (Intel och Apple Silicon) samt Linux (Ubuntu, Debian, Fedora m.fl.). Både 64-bitars x86 och ARM-arkitektur stöds.
Ja, helt och hållet. Allt körs lokalt på din dator och ingen data skickas till internet. Till skillnad från ChatGPT lagras ingenting i molnet, vilket gör LM Studio perfekt för känslig information.
LM Studio meddelar automatiskt när en ny version finns tillgänglig. Klicka på uppdateringsmeddelandet eller ladda ner senaste versionen från den officiella webbplatsen. Dina nedladdade modeller påverkas inte av uppdateringar.