Installera OpenHands på Linux med Docker
Förutsättningar
- Linux
- Docker och Docker Compose
- Minst 8 GB RAM rekommenderas
Installera Docker (om det saknas)
apt update
apt install -y docker.io docker-compose
systemctl enable --now docker
Hämta OpenHands
git clone https://github.com/OpenDevin/OpenDevin.git
cd OpenDevin
Starta med Docker
docker compose up -d
Öppna webbgränssnittet
http://SERVER_IP:3000
Säkerhet
- Begränsa åtkomst med brandvägg
- Använd autentisering om tillgängligt
- Exponera inte publikt utan skydd
Felsökning
- Se loggar:
docker compose logs -f - Kontrollera att port 3000 är öppen
Klart. OpenHands är nu igång.
Vad är OpenHands och när passar det?
OpenHands, tidigare känt som OpenDevin, är ett projekt för att köra en AI-agent i ett eget webbgränssnitt. Verktyget passar dig som vill testa kodhjälp, enklare agentuppgifter och experiment med arbetsflöden där en modell får agera mer självständigt än i en vanlig chatt. Guiden här fokuserar på en rak Docker-installation så att du snabbt kan kontrollera att tjänsten startar korrekt på Linux.
Innan du börjar är det klokt att kontrollera att Docker fungerar, att porten du tänker använda är ledig och att servern har tillräckligt med minne. På små VPS:er eller äldre datorer kan OpenHands starta men kännas segt. Börja därför med en så ren miljö som möjligt och verifiera först att containern går upp utan fel.
Vanliga problem när du installerar OpenHands
Om webbgränssnittet inte laddas beror det ofta på att containern har avslutats, att portmappningen är fel eller att brandväggen blockerar trafik. Kontrollera först docker compose ps och läs sedan loggarna med docker compose logs -f. Ett annat vanligt fel är att man använder en äldre Compose-version som inte matchar projektets nuvarande konfiguration.
När du vill öppna tjänsten utanför ditt lokala nät är det säkrare att använda SSH-tunnel eller omvänd proxy än att exponera porten direkt. Det minskar risken under testfasen och gör det enklare att felsöka stegvis.
Vad gör du efter installationen?
När OpenHands fungerar kan du jämföra det med CrewAI om du vill definiera tydliga roller mellan flera agenter, eller med LM Studio Server om målet är att köra lokala modeller via ett eget API. För en bredare översikt finns även vår samlingssida om AI-agenter och fler installationsguider.