XR de Código Abierto: Directorio Completo de Proyectos, Frameworks y Herramientas AR/VR
Todos los proyectos de código abierto más importantes en XR, AR y VR — desde WebXR y A-Frame hasta OpenXR y Godot. La guía del desarrollador para construir experiencias de computación espacial sin dependencia de proveedores.
Por qué el código abierto está transformando el desarrollo de XR
La realidad extendida - AR, VR y MR - ha estado históricamente dominada por SDKs propietarios, ecosistemas de hardware cerrados y cadenas de herramientas costosas. Unity, Unreal Engine y los SDKs específicos de dispositivos crearon un panorama fragmentado donde los desarrolladores se veían atrapados por decisiones de proveedores y cambios de licenciamiento. El auge de un ecosistema XR de código abierto robusto está cambiando todo eso.
Hoy en día, puedes desarrollar un juego VR completamente inmersivo con Godot (licencia MIT, cero royalties), implementarlo a través de OpenXR en cualquier headset principal, transmitirlo inalámbricamente vía ALVR o WiVRn, y rastrear manos usando MediaPipe, todo sin pagar una sola tarifa de licencia ni tocar código propietario. Para XR basado en web, A-Frame, Babylon.js y Three.js ofrecen experiencias de calidad producción en el navegador. Para AR móvil, AR.js y MindAR.js hacen que el rastreo sin marcadores sea accesible para cada desarrollador web.
Este directorio cataloga todos los proyectos de código abierto significativos en el ecosistema XR - con conteos de estrellas de GitHub, licencias, lenguajes principales y descripciones - para que puedas construir tu stack con confianza. Ya seas un desarrollador indie en solitario, un laboratorio de investigación o un equipo empresarial evaluando riesgos de bloqueo de proveedores, esta es tu guía de referencia.
Directorio completo de proyectos XR de código abierto
La tabla a continuación cubre todos los proyectos de código abierto principales en el ecosistema XR a partir de 2026. Los conteos de estrellas de GitHub son aproximados y reflejan el interés activo de la comunidad.
1. XR basado en web: desarrolla sin tienda de aplicaciones
El navegador es la plataforma de entrega de XR más accesible que existe - sin aprobación de tienda de aplicaciones, sin sideloading, sin instalación de SDK. La WebXR Device API (un estándar W3C) define cómo los navegadores exponen capacidades de VR y AR, y un ecosistema próspero de frameworks se construye sobre ella.
WebXR Device API
La WebXR Device API es la base de todo XR basado en navegador. Proporciona acceso a la pose del headset, controladores, rastreo de manos y pruebas de impacto de AR directamente desde JavaScript. Compatible con Chrome, Edge, Firefox Reality y Safari (parcial), es mantenida por el W3C Immersive Web Working Group. La especificación incluye módulos para WebXR Depth Sensing, Lighting Estimation, Anchors y Hand Input, haciendo que WebXR moderno sea sorprendentemente capaz para aplicaciones AR de producción.
A-Frame
Creado por Mozilla y ahora mantenido por la comunidad, A-Frame sigue siendo el camino más amigable para principiantes hacia WebXR. Utiliza elementos personalizados tipo HTML (
- GitHub: github.com/aframevr/aframe - ~16k estrellas, MIT
- Mejor para: prototipado rápido, educación, demostraciones simples de VR/AR web
Babylon.js
Babylon.js de Microsoft es posiblemente el motor 3D de código abierto más completo en características para la web. Con renderizado PBR completo, sombras en tiempo real, física Havok y soporte WebXR de primera clase incluyendo VR, AR y rastreo de manos, es muy superior a su peso. Su WebXR Experience Helper hace que agregar modo inmersivo a cualquier escena sea una única línea de código. El motor se envía con un inspector completo, un editor de materiales de nodos y excelente soporte de TypeScript, haciéndolo atractivo para desarrollo empresarial.
- GitHub: github.com/BabylonJS/Babylon.js - ~23k estrellas, Apache 2.0
- Mejor para: aplicaciones web de producción, XR empresarial, renderizado de calidad de juegos
Three.js y React Three Fiber
Three.js es la columna vertebral de la mayoría de 3D web - con más de 100k estrellas de GitHub es la librería 3D más utilizada en JavaScript. Su WebXRManager maneja la configuración de sesión del dispositivo, eventos de controlador y el bucle de renderizado automáticamente. React Three Fiber (R3F) trae Three.js al modelo de componentes React, haciéndolo la opción natural para equipos ya usando React. El paquete @react-three/xr agrega una API limpia de rastreo de controlador XR y manos sobre R3F. Juntos forman uno de los stacks WebXR más productivos disponibles.
- Three.js: github.com/mrdoob/three.js - ~102k estrellas, MIT
- React Three Fiber: github.com/pmndrs/react-three-fiber - ~27k estrellas, MIT
2. Motores de juegos y runtimes: desarrollo XR de stack completo
Godot Engine
Godot 4.x dio un salto monumental para el desarrollo de juegos de código abierto, y XR es un ciudadano de primera clase. El soporte de OpenXR está integrado directamente en el núcleo del motor - sin plugin requerido para headsets Quest, SteamVR o Pico. El plugin Godot OpenXR Vendors agrega extensiones específicas del dispositivo (rastreo de manos, passthrough, rastreo ocular) para dispositivos Meta, Pico y conformes a Khronos. A partir de marzo de 2026, Godot introdujo un Asistente de configuración de proyectos XR que guía a los desarrolladores a través de la configuración y crea proyectos listos para exportación en minutos. Con una licencia completamente MIT (cero royalties, sin umbrales de ingresos), Godot es una verdadera alternativa a Unity para XR.
- GitHub: github.com/godotengine/godot - ~92k estrellas, MIT
- Mejor para: juegos VR/AR completos, XR multiplataforma, evitar licenciamiento de Unity/Unreal
OpenXR
OpenXR es el estándar más importante en desarrollo de XR. Creado por el Khronos Group (el mismo organismo detrás de OpenGL y Vulkan), define una API portable y libre de royalties tanto para hardware como software XR. Antes de OpenXR, los desarrolladores tenían que mantener rutas de código separadas para Oculus SDK, OpenVR, Windows Mixed Reality y otros. Hoy en día, Meta Quest, SteamVR, Pico, HoloLens 2, Varjo y Magic Leap se envían con runtimes OpenXR. El SDK de OpenXR de Khronos y la suite de pruebas de conformidad están disponibles en GitHub. Si estás iniciando un proyecto XR en 2026, OpenXR debe ser tu objetivo de runtime.
- GitHub: github.com/KhronosGroup/OpenXR-SDK - Apache 2.0
LÖVR
LÖVR es un framework VR deliciosamente simple que te permite escribir experiencias VR en Lua - el mismo lenguaje de scripting ligero utilizado por Roblox y Defold. Si solo quieres construir algo inmersivo sin luchar contra un motor completo, la API minimalista de LÖVR es refrescante. Soporta OpenXR nativamente, funciona en headsets de escritorio y autónomos, y tiene una comunidad amigable. Excelente para prototipos de investigación y experimentos artísticos.
- GitHub: github.com/bjornbytes/lovr - ~2.2k estrellas, MIT
3. Frameworks AR: realidad aumentada sin el SDK
AR.js
AR.js es la librería web AR de código abierto original, que proporciona AR basada en marcadores, seguimiento de imágenes NFT y AR basada en ubicación a cualquier navegador a través de WebXR o WebRTC. No requiere instalación de aplicación, funciona en iOS y Android, e integra tanto A-Frame como Three.js. Aunque su precisión en el seguimiento de imágenes ha sido superada por librerías más nuevas, AR.js sigue siendo el punto de entrada más accesible para AR basada en marcadores y experiencias AR de escala urbana.
- GitHub: github.com/AR-js-org/AR.js - ~16k estrellas, MIT
MindAR.js
MindAR.js es una librería web AR más moderna construida sobre TensorFlow.js, que ofrece seguimiento robusto de imágenes (con calidad comparable a los filtros de Snapchat) y seguimiento de rostros directamente en el navegador. No se requiere procesamiento en el servidor: toda la inferencia ML se ejecuta en el cliente. Se integra perfectamente tanto con Three.js como con A-Frame, y su rendimiento en seguimiento de imágenes rivaliza con SDKs nativos en muchos casos de uso.
- GitHub: github.com/hiukim/mind-ar-js - ~3k estrellas, MIT
MediaPipe
MediaPipe de Google es la base de la mayoría del seguimiento de manos y cuerpo de código abierto en XR. Proporciona pipelines ML listos para producción para detección de puntos de referencia de manos (21 puntos clave por mano), malla facial (468 puntos de referencia), estimación de pose (cuerpo completo) y detección de objetos, todo ejecutándose en tiempo real en CPU o GPU. MediaPipe funciona en Android, iOS, web (WASM) y escritorio. Muchos proyectos XR de código abierto utilizan MediaPipe como su capa de percepción para el seguimiento de manos sin guantes VR dedicados.
- GitHub: github.com/google/mediapipe - ~26k estrellas, Apache 2.0
4. Mapeo Espacial y SLAM: Entendiendo el Mundo
La Localización y Mapeo Simultáneos (SLAM) es la tecnología central detrás del seguimiento "inside-out" y los anclajes AR persistentes. Estas librerías de código abierto son las que investigadores y fabricantes de hardware utilizan para integrar conciencia espacial en los dispositivos.
ORB-SLAM3
ORB-SLAM3 de la Universidad de Zaragoza es la implementación SLAM de código abierto más citada en la literatura científica. Soporta cámaras monoculares, estéreo y RGB-D, y añade compatibilidad con cámaras gran angular e integración IMU (SLAM visual-inercial). Incluye detección de cierre de bucle, reutilización de mapas entre sesiones y soporte multi-mapa. Aunque la licencia GPLv3 limita el uso comercial, ORB-SLAM3 es el estándar de oro para benchmarking e investigación académica.
- GitHub: github.com/UZ-SLAMLab/ORB_SLAM3 - ~9k estrellas, GPLv3
Kimera (MIT SPARK Lab)
Kimera es un sistema SLAM métrico-semántico completo del SPARK Lab del MIT. Combina odometría visual-inercial (Kimera-VIO), reconstrucción de malla 3D y etiquetado semántico en un único pipeline. Si estás construyendo aplicaciones AR que necesitan entender qué objetos hay en la escena (no solo su geometría), Kimera es uno de los pocos sistemas de código abierto que maneja esto de extremo a extremo.
- GitHub: github.com/MIT-SPARK/Kimera-VIO - ~2.5k estrellas, BSD-2-Clause
5. Herramientas, Utilidades e Infraestructura
Monado
Monado es el primer runtime OpenXR de código abierto del mundo, desarrollado por Collabora y alojado en freedesktop.org. Se ejecuta en Linux y soporta una amplia gama de hardware incluyendo Valve Index, headsets WMR y controladores rastreados vía PSMove o Lighthouse. Monado es el runtime que impulsa WiVRn (transmisión inalámbrica) y se utiliza cada vez más en sistemas XR embebidos y automotrices. Para cualquier desarrollo XR en Linux o fabricante de headsets buscando implementar OpenXR, Monado es la implementación de referencia.
- GitLab: gitlab.freedesktop.org/monado/monado - MIT
ALVR (Air Light VR)
ALVR te permite transmitir juegos VR de PC de forma inalámbrica a headsets Meta Quest. A diferencia de Air Link oficial de Meta (propietario), ALVR es completamente de código abierto, escrito en Rust para rendimiento y seguridad, y soporta juegos de SteamVR de inmediato. Utiliza un pipeline de códec personalizado para minimizar la latencia en Wi-Fi. ALVR es uno de los proyectos XR de código abierto más populares en GitHub y se mantiene activamente con lanzamientos frecuentes.
- GitHub: github.com/alvr-org/ALVR - ~5k estrellas, MIT
WiVRn
WiVRn es una solución más nueva de transmisión VR inalámbrica construida específicamente para el ecosistema Linux. Se integra con Monado y transmite contenido OpenXR a headsets basados en Android (Quest, Pico) sobre Wi-Fi. Mientras que ALVR se enfoca en compatibilidad con SteamVR, WiVRn es "architecture-first", diseñado para el stack runtime OpenXR de código abierto. Es la solución recomendada para usuarios de PC VR en Linux que quieren código abierto en toda la pila.
- GitHub: github.com/WiVRn/WiVRn - ~1.2k estrellas, GPLv3
6. Herramientas de Creación y Contenido
Blender XR Viewport
Blender, la herramienta de creación 3D de código abierto más popular del mundo, ha incluido un viewport VR nativo desde la versión 2.83. Artistas y desarrolladores pueden revisar sus escenas 3D, animaciones y entornos directamente en un headset VR sin necesidad de exportar. El viewport XR soporta navegación a escala de sala, ensamblado de objetos y herramientas básicas de manipulación. Es particularmente valioso para artistas de entornos que construyen contenido XR y que desean retroalimentación espacial inmediata.
- GitHub: github.com/blender/blender - ~12k estrellas, GPL-2.0
Mozilla Hubs y Spoke
Mozilla Hubs es una plataforma social VR basada en navegador de código abierto, piensa en VRChat pero completamente abierta y auto-alojable. Te unes a salas con un avatar a través de WebXR, sin necesidad de instalar aplicación. Spoke es el editor de construcción de mundos complementario que te permite componer escenas 3D usando arrastrar y soltar. Aunque Mozilla redujo su servicio Hubs alojado, el código base sigue siendo completamente de código abierto y una comunidad vibrante mantiene despliegues auto-alojados. Hubs está construido sobre Three.js, A-Frame y Phoenix (Elixir), convirtiéndolo en un fascinante caso de estudio de arquitectura XR de código abierto.
- GitHub: github.com/mozilla/hubs - ~2k estrellas, MPL 2.0
Primeros Pasos: Qué Stack para Cada Caso de Uso
Caso de Uso: Demo WebXR o Experiencia Interactiva
Stack: A-Frame + AR.js o MindAR.js para AR; A-Frame o Babylon.js para VR. Despliega como un sitio estático (Vercel, Netlify, GitHub Pages). Sin necesidad de backend. Compatible con Meta Quest Browser, Chrome e iOS Safari.
Caso de Uso: Juego VR Independiente
Stack: Godot 4.x + OpenXR + plugin Godot OpenXR Vendors. Exporta a Meta Quest, SteamVR o Pico. Usa GDScript o C#. La licencia MIT significa sin royalties. Opcionalmente transmite vía ALVR durante el desarrollo para pruebas inalámbricas.
Caso de Uso: Investigación o Prototipo AR
Stack: ORB-SLAM3 o Kimera para SLAM + MediaPipe para seguimiento de manos/poses + OpenCV para procesamiento de imágenes. Conecta vía ROS2 para integración robótica. Ejecuta en un portátil + cámara RealSense D435i u OAK-D.
Caso de Uso: VR en PC Linux
Stack: Monado (runtime OpenXR) + SteamVR o Godot nativo + WiVRn para transmisión inalámbrica. Stack completamente open source, desde el driver hasta el headset.
Caso de Uso: Aplicación Web Empresarial con UI Espacial
Stack: React Three Fiber + @react-three/xr + Babylon.js (para GUI). TypeScript en todo el proyecto. Funciona dentro de una app React/Next.js estándar. Conjunto completo de características WebXR incluyendo seguimiento de manos y detección de profundidad.
El Ecosistema Open Source XR: Cómo Se Conecta Todo
Los proyectos anteriores no existen de forma aislada, sino que forman un ecosistema en capas donde cada proyecto se construye sobre otros. En la base, OpenXR es la API de runtime universal que implementan los fabricantes de hardware y orientan los desarrolladores. Godot y LÖVR consumen OpenXR a nivel de motor. Monado implementa OpenXR para Linux. ALVR y WiVRn cierren la brecha entre OpenXR en PC y headsets Android inalámbricos.
Por encima del runtime, los motores de juegos y frameworks web proporcionan la experiencia del desarrollador. Three.js y Babylon.js se comunican con WebXR en navegadores. React Three Fiber lleva Three.js al paradigma de React. A-Frame abstrae Three.js con componentes HTML declarativos. Cada capa de abstracción intercambia rendimiento por velocidad de desarrollo, así que saber dónde se sitúa tu caso de uso en ese espectro es clave.
La capa de percepción, lo que el dispositivo conoce del mundo físico, está impulsada por SLAM (ORB-SLAM3, Kimera) para mapeo espacial, y por ML (MediaPipe, DepthAI) para comprensión semántica de manos, rostros y objetos. Estos sistemas se integran en frameworks de nivel superior que exponen anclajes, articulaciones de manos y APIs de mallas a través de extensiones OpenXR.
Finalmente, herramientas de creación como Blender, Spoke y Mozilla Hubs cierren el ciclo, permitiendo que artistas y diseñadores produzcan, previsualizacen e implementen contenido sin software propietario. El resultado es un pipeline completo e independiente del vendedor, desde la creación de escenas hasta su distribución.
El Estado del Open Source XR en 2026
El ecosistema open source XR en 2026 es más maduro, más listo para producción e más interconectado que nunca. Las mejoras XR de Godot, la adopción empresarial de Babylon.js, el pipeline de transmisión refinado de ALVR, y la amplia adopción industria de OpenXR han elevado colectivamente el nivel mínimo de lo que open source puede entregar. El bloqueo de proveedores ya no es una inevitabilidad en el desarrollo XR.
Ya sea que estés construyendo para el navegador, un headset independiente, una estación de trabajo Linux o un robot de investigación, existe una ruta de producción open source de alta calidad. Los proyectos en este directorio representan miles de contribuidores y millones de horas de desarrollo. Úsalos bien y considera contribuir de vuelta.
Recursos Relacionados en Reality Atlas
- Tabla Comparativa de Especificaciones de Hardware XR - Ve en qué hardware funcionan estas herramientas
- Glosario XR / AR / VR - Terminología de desarrollo XR explicada
- Estadísticas de la Industria XR 2026 - El ecosistema de desarrolladores en números