Open Source XR: Das komplette Verzeichnis von AR/VR-Projekten, Frameworks & Tools
Jedes große Open-Source-Projekt in XR, AR und VR — von WebXR und A-Frame bis OpenXR und Godot. Der Entwicklerleitfaden zum Erstellen von Spatial-Computing-Erfahrungen ohne Vendor Lock-in.
Warum Open Source die XR-Entwicklung neu gestaltet
Extended Reality – AR, VR und MR – wurde historisch von proprietären SDKs, geschlossenen Hardware-Ökosystemen und teuren Toolchains dominiert. Unity, Unreal Engine und gerätespezifische SDKs schufen eine fragmentierte Landschaft, in der Entwickler sich in Anbieterentscheidungen und Lizenzänderungen verfangen fanden. Der Aufstieg eines robusten Open-Source-XR-Ökosystems ändert all das.
Heute kannst du ein vollständig immersives VR-Spiel mit Godot (MIT-Lizenz, null Lizenzgebühren) entwickeln, es über OpenXR auf jedes große Headset bereitstellen, es drahtlos über ALVR oder WiVRn streamen und Hände mit MediaPipe verfolgen – alles ohne eine einzige Lizenzgebühr zu zahlen oder proprietären Code zu berühren. Für Web-basierte XR bieten A-Frame, Babylon.js und Three.js produktionsgeeignete Erfahrungen im Browser. Für AR auf Mobilgeräten machen AR.js und MindAR.js markerloses Tracking für jeden Web-Entwickler zugänglich.
Dieses Verzeichnis katalogisiert jedes bedeutende Open-Source-Projekt im XR-Ökosystem – mit GitHub-Sternzahlen, Lizenzen, primären Programmiersprachen und Beschreibungen – damit du deinen Stack mit Zuversicht aufbauen kannst. Ob du ein einzelner Indie-Entwickler, ein Forschungslabor oder ein Enterprise-Team, das das Risiko von Anbieter-Lock-in evaluiert, bist – dies ist dein Referenzleitfaden.
Vollständiges Verzeichnis von Open-Source-XR-Projekten
Die folgende Tabelle umfasst alle wichtigen Open-Source-Projekte im XR-Ökosystem ab 2026. GitHub-Sternzahlen sind ungefähr und spiegeln das aktive Gemeinschaftsinteresse wider.
1. Web-basierte XR: Entwickeln ohne App Store
Der Browser ist die zugänglichste XR-Bereitstellungsplattform, die es gibt – keine App-Store-Genehmigung, kein Sideloading, keine SDK-Installation. Die WebXR Device API (ein W3C-Standard) definiert, wie Browser VR- und AR-Funktionen bereitstellen, und ein florierendes Ökosystem von Frameworks sitzt darauf auf.
WebXR Device API
Die WebXR Device API ist die Grundlage aller browsergestützten XR. Sie bietet Zugriff auf Headset-Pose, Controller, Hand Tracking und AR Hit-Testing direkt aus JavaScript. Unterstützt in Chrome, Edge, Firefox Reality und Safari (teilweise), wird sie von der W3C Immersive Web Working Group gepflegt. Die Spezifikation umfasst Module für WebXR Depth Sensing, Lighting Estimation, Anchors und Hand Input – was WebXR überraschend leistungsfähig für produktive AR-Apps macht.
A-Frame
Von Mozilla entwickelt und jetzt von der Community gepflegt, bleibt A-Frame der anfängerfreundlichste Weg in WebXR. Es verwendet HTML-ähnliche benutzerdefinierte Elemente (
- GitHub: github.com/aframevr/aframe – ~16k Stars, MIT
- Beste für: Schnelle Prototypisierung, Bildung, einfache VR/AR-Web-Demos
Babylon.js
Microsofts Babylon.js ist wohl die funktionsreichste Open-Source-3D-Engine für das Web. Mit vollständigem PBR-Rendering, Echtzeit-Schatten, Havok-Physik und erstklassiger WebXR-Unterstützung einschließlich VR, AR und Hand Tracking punkte es deutlich über sein Gewicht. Der WebXR Experience Helper macht das Hinzufügen des immersiven Modus zu einer beliebigen Szene zu einer einzigen Codezeile. Die Engine wird mit einem vollständigen Inspector, einem Node Material Editor und großartigem TypeScript-Support ausgeliefert – was sie für Enterprise-Entwicklung attraktiv macht.
- GitHub: github.com/BabylonJS/Babylon.js – ~23k Stars, Apache 2.0
- Beste für: Produktive Web-Apps, Enterprise-XR, Game-Quality-Rendering
Three.js & React Three Fiber
Three.js ist das Rückgrat der meisten Web-3D – mit über 100k GitHub-Sternen ist es die am weitesten verbreitete 3D-Bibliothek in JavaScript. Sein WebXRManager handhabt die Geräte-Session-Einrichtung, Controller-Events und die Render-Loop automatisch. React Three Fiber (R3F) bringt Three.js in das React-Komponentenmodell und macht es zur natürlichen Wahl für Teams, die bereits React verwenden. Das @react-three/xr-Paket fügt eine saubere XR-Controller- und Hand-Tracking-API auf R3F hinzu. Zusammen bilden sie einen der produktivsten WebXR-Stacks, die verfügbar sind.
- Three.js: github.com/mrdoob/three.js - ~102k Stars, MIT
- React Three Fiber: github.com/pmndrs/react-three-fiber - ~27k Stars, MIT
2. Game Engines & Runtimes: Full-Stack XR Development
Godot Engine
Godot 4.x hat einen monumentalen Sprung nach vorne für Open-Source-Spieleentwicklung gemacht, und XR ist ein First-Class-Citizen. OpenXR-Support ist direkt in den Engine-Kern integriert – kein Plugin erforderlich für Quest, SteamVR oder Pico-Headsets. Das Godot OpenXR Vendors-Plugin fügt geräteabhängige Erweiterungen (Hand Tracking, Passthrough, Eye Tracking) für Meta, Pico und Khronos-konforme Geräte hinzu. Ab März 2026 führte Godot einen XR Project Setup Wizard ein, der Entwickler durch die Konfiguration führt und exportfertige Projekte in Minuten erstellt. Mit einer vollständig MIT-Lizenz (keine Lizenzgebühren, keine Umsatzschwellen) ist Godot eine echte Unity-Alternative für XR.
- GitHub: github.com/godotengine/godot - ~92k Stars, MIT
- Best for: Vollständige VR/AR-Spiele, plattformübergreifendes XR, Vermeidung von Unity/Unreal-Lizenzierung
OpenXR
OpenXR ist der wichtigste Standard in der XR-Entwicklung. Geschaffen von der Khronos Group (derselben Organisation hinter OpenGL und Vulkan), definiert es eine tragbare, lizenzgebührenfreie API für sowohl XR-Hardware als auch Software. Vor OpenXR mussten Entwickler separate Codepfade für Oculus SDK, OpenVR, Windows Mixed Reality und andere pflegen. Heute versenden Meta Quest, SteamVR, Pico, HoloLens 2, Varjo und Magic Leap alle OpenXR-Runtimes. Das Khronos OpenXR SDK und die Konformitätstestsuite sind auf GitHub verfügbar. Wenn Sie 2026 ein XR-Projekt starten, sollte OpenXR Ihr Runtime-Ziel sein.
- GitHub: github.com/KhronosGroup/OpenXR-SDK - Apache 2.0
LÖVR
LÖVR ist ein erfrischend einfaches VR-Framework, mit dem Sie VR-Erfahrungen in Lua schreiben können – dieselbe leichte Skriptsprache, die von Roblox und Defold verwendet wird. Wenn Sie einfach etwas Immersives bauen möchten, ohne sich mit einer vollständigen Engine herumzuschlagen, ist LOVRs minimale API erfrischend. Es unterstützt OpenXR nativ, funktioniert auf Desktop- und Standalone-Headsets und hat eine freundliche Community. Großartig für Forschungsprototypen und künstlerische Experimente.
- GitHub: github.com/bjornbytes/lovr - ~2,2k Stars, MIT
3. AR Frameworks: Augmented Reality Without the SDK
AR.js
AR.js ist die ursprüngliche Open-Source-Web-AR-Bibliothek – bringt markierungsbasiertes, NFT (Image Tracking) und standortbasiertes AR auf jeden Browser über WebXR oder WebRTC. Es erfordert keine App-Installation, funktioniert auf iOS und Android und integriert sich mit A-Frame und Three.js. Während seine Image-Tracking-Genauigkeit von neueren Bibliotheken übertroffen wurde, bleibt AR.js der einfachste Einstiegspunkt für markierungsbasierte AR und stadtweite Location-AR-Erfahrungen.
- GitHub: github.com/AR-js-org/AR.js - ~16k Stars, MIT
MindAR.js
MindAR.js ist eine modernere Web-AR-Bibliothek, die auf TensorFlow.js aufgebaut ist und robustes Image Tracking (wie Snapchat-Lens-Qualität) und Face Tracking direkt im Browser bietet. Keine serverseitige Verarbeitung erforderlich – alle ML-Inferenz läuft clientseitig. Es integriert sich sauber mit Three.js und A-Frame, und seine Image-Tracking-Performance konkurriert mit nativen SDKs für viele Anwendungsfälle.
- GitHub: github.com/hiukim/mind-ar-js - ~3k Stars, MIT
MediaPipe
Google's MediaPipe ist das Rückgrat der meisten Open-Source-Hand- und Body-Tracking in XR. Es bietet produktionsreife ML-Pipelines für Hand-Landmark-Erkennung (21 Keypoints pro Hand), Face-Mesh (468 Landmarks), Pose-Schätzung (Full Body) und Objekterkennung – alle laufen in Echtzeit auf CPU oder GPU. MediaPipe läuft auf Android, iOS, dem Web (WASM) und Desktop. Viele Open-Source-XR-Projekte verwenden MediaPipe als Wahrnehmungsebene für Hand-Tracking ohne dedizierte VR-Handschuhe.
- GitHub: github.com/google/mediapipe - ~26k Stars, Apache 2.0
4. Spatial Mapping & SLAM: Die Welt verstehen
Simultaneous Localization and Mapping (SLAM) ist die Kerntechnologie hinter Inside-Out-Tracking und persistenten AR-Ankern. Diese Open-Source-Bibliotheken werden von Forschern und Hardware-Herstellern verwendet, um räumliches Bewusstsein in Geräte einzubauen.
ORB-SLAM3
ORB-SLAM3 der Universität Saragossa ist die am häufigsten zitierte Open-Source-SLAM-Implementierung. Es unterstützt monokulare, Stereo- und RGB-D-Kameras und bietet zusätzliche Unterstützung für Fischaugen-Kameras und IMU-Integration (visual-inertial SLAM). Es umfasst Loop-Closure-Erkennung, Kartenwiederverwendung über Sitzungen hinweg und Multi-Map-Unterstützung. Obwohl die GPLv3-Lizenz die kommerzielle Nutzung einschränkt, ist ORB-SLAM3 der Gold-Standard für Benchmarking und akademische Forschung.
- GitHub: github.com/UZ-SLAMLab/ORB_SLAM3 - ~9k Stars, GPLv3
Kimera (MIT SPARK Lab)
Kimera ist ein vollständiges Metric-Semantic-SLAM-System aus dem SPARK Lab des MIT. Es kombiniert Visual-Inertial Odometry (Kimera-VIO), 3D-Mesh-Rekonstruktion und semantische Kennzeichnung in einer einzigen Pipeline. Wenn Sie AR-Anwendungen entwickeln, die verstehen müssen, welche Objekte sich in der Szene befinden (nicht nur deren Geometrie), ist Kimera eines der wenigen Open-Source-Systeme, das dies End-to-End bewältigt.
- GitHub: github.com/MIT-SPARK/Kimera-VIO - ~2.5k Stars, BSD-2-Clause
5. Tools, Utilities & Infrastruktur
Monado
Monado ist die weltweit erste Open-Source-OpenXR-Runtime, entwickelt von Collabora und gehostet auf freedesktop.org. Sie läuft auf Linux und unterstützt eine breite Palette von Hardware, einschließlich Valve Index, WMR-Headsets und verfolgter Controller über PSMove oder Lighthouse. Monado ist die Runtime, die WiVRn (Wireless Streaming) antreibt, und wird zunehmend in eingebetteten und Automotive-XR-Systemen verwendet. Für jede Linux-XR-Entwicklung oder jeden Headset-Hersteller, der OpenXR implementieren möchte, ist Monado die Referenzimplementierung.
- GitLab: gitlab.freedesktop.org/monado/monado - MIT
ALVR (Air Light VR)
ALVR ermöglicht es Ihnen, PC-VR-Spiele kabellos auf Meta Quest-Headsets zu streamen. Im Gegensatz zum offiziellen Meta Air Link (proprietär) ist ALVR vollständig Open Source, in Rust geschrieben für Performance und Sicherheit und unterstützt SteamVR-Spiele out-of-the-box. Es verwendet eine benutzerdefinierte Codec-Pipeline, um die Latenz über Wi-Fi zu minimieren. ALVR ist eines der beliebtesten Open-Source-XR-Projekte auf GitHub und wird aktiv gepflegt mit häufigen Releases.
- GitHub: github.com/alvr-org/ALVR - ~5k Stars, MIT
WiVRn
WiVRn ist eine neuere Wireless-VR-Streaming-Lösung, die speziell für das Linux-Ökosystem entwickelt wurde. Sie integriert sich mit Monado und streamt OpenXR-Inhalte über Wi-Fi auf Android-basierte Headsets (Quest, Pico). Während ALVR sich auf SteamVR-Kompatibilität konzentriert, ist WiVRn architekturorientiert – konzipiert für den Open-Source-OpenXR-Runtime-Stack. Es ist die empfohlene Lösung für Linux-PC-VR-Benutzer, die vollständige Open Source wünschen.
- GitHub: github.com/WiVRn/WiVRn - ~1.2k Stars, GPLv3
6. Creation & Content Tools
Blender XR Viewport
Blender – das weltweit beliebteste Open-Source-3D-Erstellungstool – enthält seit Version 2.83 einen nativen VR-Viewport. Künstler und Entwickler können ihre 3D-Szenen, Animationen und Umgebungen direkt in einem VR-Headset überprüfen, ohne zu exportieren. Der XR-Viewport unterstützt Room-Scale-Navigation, Objekt-Snapping und grundlegende Manipulationswerkzeuge. Es ist besonders wertvoll für Environment-Artists, die XR-Inhalte erstellen und unmittelbares räumliches Feedback wünschen.
- GitHub: github.com/blender/blender - ~12k Stars, GPL-2.0
Mozilla Hubs & Spoke
Mozilla Hubs ist eine Open-Source-Browser-basierte soziale VR-Plattform – denken Sie an VRChat, aber vollständig offen und selbst hostbar. Sie betreten Räume mit einem Avatar über WebXR, ohne dass eine App installiert werden muss. Spoke ist der begleitende World-Building-Editor, mit dem Sie 3D-Szenen per Drag-and-Drop zusammenstellen können. Obwohl Mozilla seinen gehosteten Hubs-Dienst reduziert hat, bleibt die Codebasis vollständig Open Source und eine lebendige Community betreut selbst gehostete Bereitstellungen. Hubs basiert auf Three.js, A-Frame und Phoenix (Elixir) und ist ein faszinierendes Open-Source-XR-Architektur-Beispiel.
- GitHub: github.com/mozilla/hubs - ~2k Stars, MPL 2.0
Erste Schritte: Welcher Stack für welchen Use Case
Use Case: WebXR-Demo oder interaktive Erfahrung
Stack: A-Frame + AR.js oder MindAR.js für AR; A-Frame oder Babylon.js für VR. Bereitstellung als statische Website (Vercel, Netlify, GitHub Pages). Kein Backend erforderlich. Funktioniert in Meta Quest Browser, Chrome und iOS Safari.
Use Case: Indie VR Game
Stack: Godot 4.x + OpenXR + Godot OpenXR Vendors Plugin. Export zu Meta Quest, SteamVR oder Pico. Verwenden Sie GDScript oder C#. MIT-Lizenz bedeutet keine Lizenzgebühren. Optional ALVR während der Entwicklung für kabellose Tests streamen.
Use Case: AR-Forschung oder Prototyp
Stack: ORB-SLAM3 oder Kimera für SLAM + MediaPipe für Hand-/Pose-Tracking + OpenCV für Bildverarbeitung. Verbindung über ROS2 für Roboter-Integration. Betrieb auf einem Laptop + RealSense D435i oder OAK-D Kamera.
Use Case: Linux PC VR
Stack: Monado (OpenXR-Runtime) + SteamVR oder natives Godot + WiVRn für kabellose Streaming. Vollständig Open-Source-Stack von Treiber zu Headset.
Use Case: Enterprise-Webanwendung mit Spatial UI
Stack: React Three Fiber + @react-three/xr + Babylon.js (für GUI). TypeScript durchgehend. Funktioniert innerhalb einer Standard-React/Next.js-App. Vollständiger WebXR-Funktionssatz inklusive Hand-Tracking und Tiefenerkennung.
Das Open-Source-XR-Ökosystem: Wie es alles zusammenhängt
Die oben aufgeführten Projekte existieren nicht isoliert – sie bilden ein geschichtetes Ökosystem, in dem jedes Projekt auf anderen aufbaut. An der Basis befindet sich OpenXR, die universelle Runtime-API, die Hardware-Hersteller implementieren und Software anvisiert. Godot und LÖVR konsumieren OpenXR auf Engine-Ebene. Monado implementiert OpenXR für Linux. ALVR und WiVRn überbrücken die Lücke zwischen OpenXR auf dem PC und kabellosen Android-Headsets.
Über der Runtime bieten Game Engines und Web-Frameworks die Developer Experience. Three.js und Babylon.js sprechen mit WebXR in Browsern. React Three Fiber bringt Three.js ins React-Paradigma. A-Frame abstrahiert Three.js mit deklarativen HTML-Komponenten. Jede Ebene der Abstraktion tauscht Performance gegen Developer Velocity – zu wissen, wo Ihr Use Case im Spektrum liegt, ist der Schlüssel.
Die Perception Layer – das, was das Gerät über die physische Welt weiß – wird durch SLAM (ORB-SLAM3, Kimera) für räumliche Kartierung und durch ML (MediaPipe, DepthAI) für semantisches Verständnis von Händen, Gesichtern und Objekten angetrieben. Diese Systeme speisen sich in höherwertige Frameworks, die Anker, Hand-Joints und Meshing-APIs durch OpenXR-Erweiterungen verfügbar machen.
Abschließend schließen Creation-Tools wie Blender, Spoke und Mozilla Hubs die Schleife – ermöglichen Künstlern und Designern, Inhalte zu produzieren, in der Vorschau anzusehen und bereitzustellen, ohne proprietäre Software zu verwenden. Das Ergebnis ist eine vollständige, herstellerneutrale Pipeline von der Szenenerstellung bis zur Bereitstellung.
Der Zustand von Open-Source XR in 2026
Das Open-Source-XR-Ökosystem in 2026 ist reifer, produktionsbereiter und besser miteinander verbunden als je zuvor. Godots XR-Verbesserungen, die Enterprise-Akzeptanz von Babylon.js, ALVRs verfeinerte Streaming-Pipeline und die branchenweite Akzeptanz von OpenXR haben zusammen das Minimum für das erhöht, was Open Source leisten kann. Vendor Lock-in ist in der XR-Entwicklung keine Zwangsläufigkeit mehr.
Ob Sie für den Browser, ein eigenständiges Headset, eine Linux-Workstation oder einen Forschungsroboter entwickeln, es gibt einen qualitativ hochwertigen Open-Source-Weg zur Produktion. Die Projekte in diesem Verzeichnis repräsentieren Tausende von Mitwirkenden und Millionen von Entwicklerstunden. Nutzen Sie sie gut – und erwägen Sie, zurück zu geben.