Installera AnythingLLM på Linux – steg för steg

Senast uppdaterad: Februari 2025

Om AnythingLLM: AnythingLLM är ett webbaserat gränssnitt för att arbeta med språkmodeller, dokument och lokala eller fjärranslutna LLM-tjänster. Perfekt för att skapa din egen AI-kunskapsbas med dokumenthantering och RAG (Retrieval-Augmented Generation). Den här guiden visar hur du installerar AnythingLLM på en Linux-server eller lokal maskin med Docker.

📋 Innehållsförteckning

Förutsättningar

Innan du börjar installationen, se till att du har följande:

💡 Tips: Denna guide använder Docker för enklare installation och underhåll. Docker gör det lätt att uppdatera, migrera och hantera AnythingLLM.

Installera Docker (om det saknas)

Om du inte redan har Docker installerat, kör följande kommandon:

apt update apt install -y docker.io docker-compose systemctl enable --now docker

Verifiera installationen:

docker --version docker compose version
💡 För andra Linux-distributioner:
Fedora/CentOS: dnf install -y docker docker-compose
Arch Linux: pacman -S docker docker-compose

Hämta AnythingLLM

Skapa en katalog för AnythingLLM och hämta konfigurationsfilerna från GitHub:

Steg 1: Skapa katalog

mkdir -p /opt/anythingllm cd /opt/anythingllm

Steg 2: Klona repository

git clone https://github.com/Mintplex-Labs/anything-llm.git .
💡 Alternativ installation: Om du inte vill klona hela repositoryt kan du ladda ner endast docker-compose.yml filen från GitHub och anpassa den efter dina behov.

Starta tjänsten

Nu är det dags att starta AnythingLLM med Docker Compose:

docker compose up -d

Detta kommando kommer att:

✅ Första starten: Första gången kan det ta några minuter att ladda ner alla nödvändiga filer. Var tålmodig!

Kontrollera att containrarna körs:

docker ps

Du bör se AnythingLLM-containern i listan med status "Up".

Öppna webbgränssnittet

När tjänsten är startad kan du öppna webbgränssnittet i din webbläsare:

http://SERVER_IP:3001

Exempel:

💡 Första inloggningen: Vid första besöket kommer du att uppmanas att skapa ett administratörskonto. Använd ett starkt lösenord!

Initial konfiguration

Efter inloggning kan du:

  1. Skapa din första arbetsyta (workspace)
  2. Välja AI-modell (lokal eller molnbaserad)
  3. Ladda upp dokument för att börja ställa frågor
  4. Konfigurera inställningar efter dina behov

Grundläggande säkerhet

Om du kör AnythingLLM på en server är det viktigt att säkra installationen:

1. Konfigurera brandvägg (UFW)

ufw allow 22/tcp # SSH ufw allow 3001/tcp # AnythingLLM (endast om du vill tillåta extern åtkomst) ufw enable
⚠️ Säkerhetsvarning: Exponera INTE port 3001 direkt mot internet utan ytterligare skydd. Använd en reverse proxy med HTTPS och autentisering för säker extern åtkomst.

2. Använd starka lösenord

Se till att använda starka, unika lösenord för:

3. Reverse proxy med HTTPS (rekommenderat)

För säker extern åtkomst, konfigurera en reverse proxy (Nginx eller Traefik) med:

Koppla AnythingLLM till LM Studio

En av de kraftfullaste kombinationerna är att koppla AnythingLLM till en lokal LM Studio-server:

Steg 1: Starta LM Studio server

I LM Studio, starta serverläget på port 1234 (standard).

Steg 2: Konfigurera AnythingLLM

  1. Gå till Settings → LLM Provider i AnythingLLM
  2. Välj "Custom OpenAI Compatible"
  3. Ange API Base URL: http://localhost:1234 (eller din servers IP)
  4. Välj modell från listan
  5. Testa anslutningen
✅ Perfekt kombination: Nu har du en komplett offline AI-kunskapsbas där all data stannar på din egen maskin!

📖 Läs vår guide för att installera LM Studio

Felsökning

Problem: Containern startar inte

Lösning: Kontrollera containerstatus och loggar:

docker ps -a docker compose logs -f

Problem: Kan inte nå webbgränssnittet

Lösningar att testa:

Problem: Långsamt eller hänger sig

Lösningar:

Problem: Uppdatering av AnythingLLM

För att uppdatera till senaste versionen:

cd /opt/anythingllm docker compose down git pull docker compose up -d
💡 Tips: Gör alltid en backup av din data innan du uppdaterar. Data finns vanligen i /opt/anythingllm/data eller i Docker volumes.
✅ Klart!

AnythingLLM är nu installerat och redo att konfigureras. Du kan nu börja ladda upp dokument och ställa frågor till din AI-kunskapsbas!

Vanliga frågor om AnythingLLM

Vad är AnythingLLM?

AnythingLLM är ett webbaserat gränssnitt för att arbeta med språkmodeller och dokument. Det fungerar som en AI-kunskapsbas där du kan ladda upp dokument och ställa frågor med hjälp av lokala eller molnbaserade AI-modeller.

Vilka systemkrav har AnythingLLM?

AnythingLLM kräver Linux (Ubuntu 20.04+ rekommenderas), Docker och Docker Compose, minst 4 GB RAM och internetåtkomst för installation. Mer RAM rekommenderas om du kör lokala AI-modeller.

Kan jag använda AnythingLLM utan Docker?

Ja, det går att köra AnythingLLM utan Docker genom att installera från källkod med Node.js, men Docker-installationen är betydligt enklare och rekommenderas för de flesta användare.

Vilken port använder AnythingLLM?

AnythingLLM använder som standard port 3001. Du når webbgränssnittet via http://localhost:3001 eller http://SERVER_IP:3001.

Kan jag koppla AnythingLLM till LM Studio?

Ja! AnythingLLM kan kopplas till LM Studio eller andra lokala AI-servrar. Konfigurera LM Studio att köra som server på port 1234 och ange sedan http://localhost:1234 som API-endpoint i AnythingLLM.

Är AnythingLLM säkert att exponera mot internet?

Inte direkt. AnythingLLM bör skyddas med brandvägg och autentisering om det exponeras mot internet. Använd gärna en reverse proxy (Nginx/Traefik) med HTTPS och lösenordsskydd.

Hur uppdaterar jag AnythingLLM?

För att uppdatera AnythingLLM: gå till installationsmappen, kör git pull för att hämta senaste versionen, sedan docker compose down följt av docker compose up -d för att starta om med nya uppdateringar.

Stöder AnythingLLM svenska dokument?

Ja, AnythingLLM kan hantera svenska dokument och fungerar med flerspråkiga AI-modeller. För bäst resultat på svenska, använd modeller som Llama 3 eller Mistral som stödjer flera språk.

Vilka dokumentformat stöds?

AnythingLLM stöder PDF, Word-dokument (DOCX), textfiler (TXT), Markdown (MD), HTML och flera andra format. Du kan ladda upp och indexera dessa för att sedan söka i dem med AI.

Hur mycket lagringsutrymme behövs?

AnythingLLM själv är litet (några hundra MB), men lagringsbehov beror på hur många dokument du laddar upp och om du kör lokala AI-modeller. Räkna med 10-50 GB för en typisk installation med några modeller.