Senast uppdaterad: Februari 2025
Om AnythingLLM: AnythingLLM är ett webbaserat gränssnitt för att arbeta med språkmodeller, dokument och lokala eller fjärranslutna LLM-tjänster. Perfekt för att skapa din egen AI-kunskapsbas med dokumenthantering och RAG (Retrieval-Augmented Generation). Den här guiden visar hur du installerar AnythingLLM på en Linux-server eller lokal maskin med Docker.
Innan du börjar installationen, se till att du har följande:
Om du inte redan har Docker installerat, kör följande kommandon:
apt update
apt install -y docker.io docker-compose
systemctl enable --now docker
Verifiera installationen:
docker --version
docker compose version
dnf install -y docker docker-composepacman -S docker docker-compose
Skapa en katalog för AnythingLLM och hämta konfigurationsfilerna från GitHub:
mkdir -p /opt/anythingllm
cd /opt/anythingllm
git clone https://github.com/Mintplex-Labs/anything-llm.git .
docker-compose.yml filen från GitHub och anpassa den efter dina behov.
Nu är det dags att starta AnythingLLM med Docker Compose:
docker compose up -d
Detta kommando kommer att:
-d = detached mode)Kontrollera att containrarna körs:
docker ps
Du bör se AnythingLLM-containern i listan med status "Up".
När tjänsten är startad kan du öppna webbgränssnittet i din webbläsare:
http://SERVER_IP:3001
Exempel:
http://localhost:3001http://192.168.1.100:3001 (ersätt med din servers IP)Efter inloggning kan du:
Om du kör AnythingLLM på en server är det viktigt att säkra installationen:
ufw allow 22/tcp # SSH
ufw allow 3001/tcp # AnythingLLM (endast om du vill tillåta extern åtkomst)
ufw enable
Se till att använda starka, unika lösenord för:
För säker extern åtkomst, konfigurera en reverse proxy (Nginx eller Traefik) med:
En av de kraftfullaste kombinationerna är att koppla AnythingLLM till en lokal LM Studio-server:
I LM Studio, starta serverläget på port 1234 (standard).
http://localhost:1234 (eller din servers IP)📖 Läs vår guide för att installera LM Studio
Lösning: Kontrollera containerstatus och loggar:
docker ps -a
docker compose logs -f
Lösningar att testa:
docker pssudo ufw statussudo netstat -tulpn | grep 3001http://localhost:3001Lösningar:
docker statsdf -hFör att uppdatera till senaste versionen:
cd /opt/anythingllm
docker compose down
git pull
docker compose up -d
/opt/anythingllm/data eller i Docker volumes.
AnythingLLM är nu installerat och redo att konfigureras. Du kan nu börja ladda upp dokument och ställa frågor till din AI-kunskapsbas!
AnythingLLM är ett webbaserat gränssnitt för att arbeta med språkmodeller och dokument. Det fungerar som en AI-kunskapsbas där du kan ladda upp dokument och ställa frågor med hjälp av lokala eller molnbaserade AI-modeller.
AnythingLLM kräver Linux (Ubuntu 20.04+ rekommenderas), Docker och Docker Compose, minst 4 GB RAM och internetåtkomst för installation. Mer RAM rekommenderas om du kör lokala AI-modeller.
Ja, det går att köra AnythingLLM utan Docker genom att installera från källkod med Node.js, men Docker-installationen är betydligt enklare och rekommenderas för de flesta användare.
AnythingLLM använder som standard port 3001. Du når webbgränssnittet via http://localhost:3001 eller http://SERVER_IP:3001.
Ja! AnythingLLM kan kopplas till LM Studio eller andra lokala AI-servrar. Konfigurera LM Studio att köra som server på port 1234 och ange sedan http://localhost:1234 som API-endpoint i AnythingLLM.
Inte direkt. AnythingLLM bör skyddas med brandvägg och autentisering om det exponeras mot internet. Använd gärna en reverse proxy (Nginx/Traefik) med HTTPS och lösenordsskydd.
För att uppdatera AnythingLLM: gå till installationsmappen, kör git pull för att hämta senaste versionen, sedan docker compose down följt av docker compose up -d för att starta om med nya uppdateringar.
Ja, AnythingLLM kan hantera svenska dokument och fungerar med flerspråkiga AI-modeller. För bäst resultat på svenska, använd modeller som Llama 3 eller Mistral som stödjer flera språk.
AnythingLLM stöder PDF, Word-dokument (DOCX), textfiler (TXT), Markdown (MD), HTML och flera andra format. Du kan ladda upp och indexera dessa för att sedan söka i dem med AI.
AnythingLLM själv är litet (några hundra MB), men lagringsbehov beror på hur många dokument du laddar upp och om du kör lokala AI-modeller. Räkna med 10-50 GB för en typisk installation med några modeller.