XR Código Aberto: Diretório Completo de Projetos, Frameworks e Ferramentas de AR/VR
Todo grande projeto de código aberto em XR, AR e VR — de WebXR e A-Frame a OpenXR e Godot. O guia do desenvolvedor para construir experiências de spatial computing sem vendor lock-in.
Por que o Open Source está Reformulando o Desenvolvimento de XR
Extended reality - AR, VR, e MR - historicamente foi dominada por SDKs proprietários, ecossistemas de hardware fechados e toolchains caros. Unity, Unreal Engine e SDKs específicos de dispositivos criaram um cenário fragmentado onde desenvolvedores se viam presos a decisões de fornecedores e mudanças de licenciamento. O surgimento de um ecossistema robusto de open source para XR está mudando tudo isso.
Hoje, você pode construir um jogo VR totalmente imersivo com Godot (licença MIT, zero royalties), implantá-lo via OpenXR em qualquer headset principal, transmiti-lo sem fio via ALVR ou WiVRn, e rastrear mãos usando MediaPipe - tudo sem pagar uma única taxa de licenciamento ou tocar em código proprietário. Para XR baseado na web, A-Frame, Babylon.js e Three.js oferecem experiências de qualidade produção no navegador. Para AR móvel, AR.js e MindAR.js tornam o rastreamento sem marcadores acessível a cada desenvolvedor web.
Este diretório cataloga todos os projetos open source significativos no ecossistema XR - com contagens de estrelas do GitHub, licenças, linguagens primárias e descrições - para que você possa construir seu stack com confiança. Quer você seja um desenvolvedor indie solo, um laboratório de pesquisa ou um time empresarial avaliando risco de vendor lock-in, este é seu guia de referência.
Diretório Completo de Projetos Open Source XR
A tabela abaixo cobre todos os principais projetos open source no ecossistema XR em 2026. As contagens de estrelas do GitHub são aproximadas e refletem o interesse ativo da comunidade.
1. XR Baseado na Web: Construir Sem uma App Store
O navegador é a plataforma de entrega XR mais acessível que existe - sem aprovação de app store, sem sideloading, sem instalação de SDK. A WebXR Device API (um padrão W3C) define como os navegadores expõem recursos de VR e AR, e um ecossistema próspero de frameworks fica em cima disso.
WebXR Device API
A WebXR Device API é a base de todo XR baseado em navegador. Ela fornece acesso a pose de headset, controles, rastreamento de mão e hit-testing de AR diretamente do JavaScript. Suportada no Chrome, Edge, Firefox Reality e Safari (parcial), é mantida pelo W3C Immersive Web Working Group. A especificação inclui módulos para WebXR Depth Sensing, Lighting Estimation, Anchors e Hand Input - tornando WebXR moderno surpreendentemente capaz para apps AR de produção.
A-Frame
Criado pela Mozilla e agora mantido pela comunidade, A-Frame permanece o caminho mais amigável para iniciantes no WebXR. Ele usa elementos customizados semelhantes ao HTML (
- GitHub: github.com/aframevr/aframe - ~16k estrelas, MIT
- Melhor para: Prototipagem rápida, educação, demos simples de VR/AR web
Babylon.js
O Babylon.js da Microsoft é provavelmente a engine 3D open source mais completa em recursos para a web. Com renderização PBR completa, sombras em tempo real, física Havok e suporte WebXR de primeira classe incluindo VR, AR e rastreamento de mão, ele se destaca bem. Seu WebXR Experience Helper torna adicionar modo imersivo a qualquer cena uma única linha de código. A engine é enviada com um inspector completo, um editor de material de nós e excelente suporte TypeScript - tornando-a atrativa para desenvolvimento empresarial.
- GitHub: github.com/BabylonJS/Babylon.js - ~23k estrelas, Apache 2.0
- Melhor para: Apps web de produção, XR empresarial, renderização com qualidade de jogo
Three.js & React Three Fiber
Three.js é a espinha dorsal da maioria dos 3D web - com mais de 100k estrelas no GitHub, é a biblioteca 3D mais amplamente usada em JavaScript. Seu WebXRManager lida com configuração de sessão de dispositivo, eventos de controlador e o loop de renderização automaticamente. React Three Fiber (R3F) traz Three.js para o modelo de componente React, tornando-o a escolha natural para equipes que já usam React. O pacote @react-three/xr adiciona uma API limpa de controlador XR e rastreamento de mão no topo do R3F. Juntos, eles formam uma das pilhas WebXR mais produtivas disponíveis.
- Three.js: github.com/mrdoob/three.js - ~102k estrelas, MIT
- React Three Fiber: github.com/pmndrs/react-three-fiber - ~27k estrelas, MIT
2. Motores de Jogo & Runtimes: Desenvolvimento XR Full-Stack
Godot Engine
O Godot 4.x deu um salto monumental para o desenvolvimento de jogos open source, e XR é um cidadão de primeira classe. Suporte a OpenXR está integrado diretamente no núcleo do motor - nenhum plugin necessário para headsets Quest, SteamVR ou Pico. O plugin Godot OpenXR Vendors adiciona extensões específicas de dispositivo (rastreamento de mão, passthrough, rastreamento ocular) para dispositivos Meta, Pico e conformes com Khronos. A partir de março de 2026, o Godot introduziu um Assistente de Configuração de Projeto XR que guia desenvolvedores pela configuração e cria projetos prontos para exportação em minutos. Com licença MIT completa (zero royalties, sem limiares de receita), o Godot é uma genuína alternativa ao Unity para XR.
- GitHub: github.com/godotengine/godot - ~92k estrelas, MIT
- Melhor para: Jogos VR/AR completos, XR multiplataforma, evitando licenciamento Unity/Unreal
OpenXR
OpenXR é o padrão mais importante em desenvolvimento XR. Criado pelo Khronos Group (o mesmo órgão por trás do OpenGL e Vulkan), define uma API portável e livre de royalties tanto para hardware quanto para software XR. Antes do OpenXR, desenvolvedores precisavam manter caminhos de código separados para Oculus SDK, OpenVR, Windows Mixed Reality e outros. Hoje, Meta Quest, SteamVR, Pico, HoloLens 2, Varjo e Magic Leap todos vêm com runtimes OpenXR. O SDK OpenXR do Khronos e conjunto de testes de conformidade estão disponíveis no GitHub. Se você está iniciando um projeto XR em 2026, OpenXR deve ser seu alvo de runtime.
- GitHub: github.com/KhronosGroup/OpenXR-SDK - Apache 2.0
LÖVR
LÖVR é um framework VR deliciosamente simples que permite você escrever experiências VR em Lua - a mesma linguagem de script leve usada por Roblox e Defold. Se você apenas quer construir algo imersivo sem lutar com um motor completo, a API mínima do LÖVR é refrescante. Suporta OpenXR nativamente, funciona em headsets desktop e standalone, e possui uma comunidade amigável. Ótimo para protótipos de pesquisa e experimentos artísticos.
- GitHub: github.com/bjornbytes/lovr - ~2.2k estrelas, MIT
3. Frameworks de RA: Realidade Aumentada Sem o SDK
AR.js
AR.js é a biblioteca de RA web open source original - trazendo RA baseada em marcadores, NFT (rastreamento de imagem) e RA baseada em localização para qualquer navegador via WebXR ou WebRTC. Não requer instalação de aplicativo, funciona em iOS e Android, e integra-se com A-Frame e Three.js. Embora sua precisão de rastreamento de imagem tenha sido superada por bibliotecas mais novas, AR.js continua sendo o ponto de entrada mais fácil para RA baseada em marcadores e experiências de RA em escala de cidade.
- GitHub: github.com/AR-js-org/AR.js - ~16k estrelas, MIT
MindAR.js
MindAR.js é uma biblioteca de RA web mais moderna construída em TensorFlow.js, oferecendo rastreamento de imagem robusto (como qualidade de lente Snapchat) e rastreamento facial diretamente no navegador. Nenhum processamento no lado do servidor necessário - toda inferência ML é executada no cliente. Integra-se claramente com Three.js e A-Frame, e seu desempenho de rastreamento de imagem rivaliza com SDKs nativos para muitos casos de uso.
- GitHub: github.com/hiukim/mind-ar-js - ~3k estrelas, MIT
MediaPipe
O MediaPipe do Google é a base da maioria do rastreamento de mão e corpo de código aberto em XR. Ele fornece pipelines ML prontos para produção para detecção de pontos de referência da mão (21 keypoints por mão), malha facial (468 marcos), estimativa de pose (corpo inteiro) e detecção de objetos - tudo funcionando em tempo real em CPU ou GPU. MediaPipe é executado em Android, iOS, web (WASM) e desktop. Muitos projetos XR de código aberto usam MediaPipe como sua camada de percepção para rastreamento de mão sem luvas VR dedicadas.
- GitHub: github.com/google/mediapipe - ~26k stars, Apache 2.0
4. Mapeamento Espacial & SLAM: Entendendo o Mundo
Simultaneous Localization and Mapping (SLAM) é a tecnologia central por trás do rastreamento inside-out e das âncoras AR persistentes. Essas bibliotecas de código aberto são o que pesquisadores e fabricantes de hardware usam para construir consciência espacial em dispositivos.
ORB-SLAM3
ORB-SLAM3 da Universidade de Zaragoza é a implementação SLAM de código aberto mais citada. Suporta câmeras monocular, estéreo e RGB-D e adiciona suporte para câmeras fisheye e integração IMU (SLAM visual-inercial). Inclui detecção de fechamento de loop, reutilização de mapa entre sessões e suporte a multi-mapa. Embora a licença GPLv3 limite o uso comercial, ORB-SLAM3 é o padrão ouro para benchmarking e pesquisa acadêmica.
- GitHub: github.com/UZ-SLAMLab/ORB_SLAM3 - ~9k stars, GPLv3
Kimera (MIT SPARK Lab)
Kimera é um sistema SLAM métrico-semântico completo do MIT SPARK Lab. Combina odometria visual-inercial (Kimera-VIO), reconstrução de malha 3D e rotulagem semântica em um único pipeline. Se você está construindo aplicações AR que precisam entender quais objetos estão na cena (não apenas sua geometria), Kimera é um dos únicos sistemas de código aberto que lida com isso de ponta a ponta.
- GitHub: github.com/MIT-SPARK/Kimera-VIO - ~2.5k stars, BSD-2-Clause
5. Ferramentas, Utilitários & Infraestrutura
Monado
Monado é o primeiro runtime OpenXR de código aberto do mundo, desenvolvido pela Collabora e hospedado em freedesktop.org. Funciona em Linux e suporta uma ampla gama de hardware, incluindo Valve Index, headsets WMR e controladores rastreados via PSMove ou Lighthouse. Monado é o runtime que alimenta WiVRn (streaming sem fio) e é cada vez mais usado em sistemas XR embarcados e automotivos. Para qualquer desenvolvimento XR em Linux ou fabricante de headsets que busque implementar OpenXR, Monado é a implementação de referência.
- GitLab: gitlab.freedesktop.org/monado/monado - MIT
ALVR (Air Light VR)
ALVR permite que você transmita jogos de PC VR sem fio para headsets Meta Quest. Diferentemente do Air Link oficial do Meta (proprietário), ALVR é totalmente de código aberto, escrito em Rust para desempenho e segurança, e suporta jogos SteamVR imediatamente. Usa um pipeline de codec personalizado para minimizar latência sobre Wi-Fi. ALVR é um dos projetos XR de código aberto mais populares no GitHub e é mantido ativamente com lançamentos frequentes.
- GitHub: github.com/alvr-org/ALVR - ~5k stars, MIT
WiVRn
WiVRn é uma solução mais nova de streaming de VR sem fio construída especificamente para o ecossistema Linux. Se integra com Monado e transmite conteúdo OpenXR para headsets baseados em Android (Quest, Pico) via Wi-Fi. Onde ALVR foca em compatibilidade SteamVR, WiVRn é architecture-first - projetado para a stack de runtime OpenXR de código aberto. É a solução recomendada para usuários de PC VR em Linux que desejam código aberto completo.
- GitHub: github.com/WiVRn/WiVRn - ~1.2k stars, GPLv3
6. Ferramentas de Criação & Conteúdo
Blender XR Viewport
Blender - a ferramenta de criação 3D de código aberto mais popular do mundo - inclui um viewport VR nativo desde a versão 2.83. Artistas e desenvolvedores podem revisar suas cenas 3D, animações e ambientes diretamente em um headset VR sem exportar. O viewport XR suporta navegação em escala de sala, encaixe de objetos e ferramentas de manipulação básicas. É particularmente valioso para artistas de ambiente construindo conteúdo XR que desejam feedback espacial imediato.
- GitHub: github.com/blender/blender - ~12k stars, GPL-2.0
Mozilla Hubs & Spoke
Mozilla Hubs é uma plataforma social de VR baseada em navegador e código aberto - pense em VRChat mas totalmente aberta e auto-hospedável. Você entra em salas com um avatar via WebXR, sem necessidade de instalar um aplicativo. Spoke é o editor de construção de mundos complementar que permite compor cenas 3D usando drag-and-drop. Embora a Mozilla tenha reduzido seu serviço Hubs hospedado, a base de código permanece totalmente de código aberto e uma comunidade vibrante mantém implantações auto-hospedadas. Hubs é construído em Three.js, A-Frame e Phoenix (Elixir), tornando-o um fascinante estudo de arquitetura XR de código aberto.
- GitHub: github.com/mozilla/hubs - ~2k stars, MPL 2.0
Começando: Qual Stack para Qual Caso de Uso
Caso de Uso: Demo WebXR ou Experiência Interativa
Stack: A-Frame + AR.js ou MindAR.js para AR; A-Frame ou Babylon.js para VR. Implante como um site estático (Vercel, Netlify, GitHub Pages). Sem necessidade de backend. Funciona no Meta Quest Browser, Chrome e iOS Safari.
Caso de Uso: Jogo VR Independente
Stack: Godot 4.x + OpenXR + plugin Godot OpenXR Vendors. Exporte para Meta Quest, SteamVR ou Pico. Use GDScript ou C#. Licença MIT significa sem royalties. Opcionalmente, transmita via ALVR durante o desenvolvimento para teste sem fio.
Caso de Uso: Pesquisa ou Protótipo em AR
Stack: ORB-SLAM3 ou Kimera para SLAM + MediaPipe para rastreamento de mão/pose + OpenCV para processamento de imagem. Conecte via ROS2 para integração com robôs. Execute em um laptop + câmera RealSense D435i ou OAK-D.
Caso de Uso: VR em PC Linux
Stack: Monado (runtime OpenXR) + SteamVR ou Godot nativo + WiVRn para transmissão sem fio. Stack totalmente de código aberto de driver a headset.
Caso de Uso: Aplicação Web Empresarial com UI Espacial
Stack: React Three Fiber + @react-three/xr + Babylon.js (para GUI). TypeScript em todo o código. Funciona dentro de um aplicativo React/Next.js padrão. Conjunto completo de recursos WebXR incluindo rastreamento de mão e detecção de profundidade.
O Ecossistema XR de Código Aberto: Como Tudo Se Conecta
Os projetos acima não existem isoladamente - eles formam um ecossistema em camadas onde cada projeto se baseia em outros. Na base, OpenXR é a API de runtime universal que fornecedores de hardware implementam e software direcionam. Godot e LÖVR consomem OpenXR no nível do motor. Monado implementa OpenXR para Linux. ALVR e WiVRn preenchem a lacuna entre OpenXR em PC e headsets Android sem fio.
Acima do runtime, mecanismos de jogo e frameworks web fornecem a experiência do desenvolvedor. Three.js e Babylon.js falam com WebXR em navegadores. React Three Fiber traz Three.js para o paradigma React. A-Frame abstrai Three.js com componentes HTML declarativos. Cada camada de abstração troca desempenho por velocidade do desenvolvedor - saber onde seu caso de uso se situa nesse espectro é fundamental.
A camada de percepção - o que o dispositivo sabe sobre o mundo físico - é alimentada por SLAM (ORB-SLAM3, Kimera) para mapeamento espacial e por ML (MediaPipe, DepthAI) para compreensão semântica de mãos, rostos e objetos. Esses sistemas alimentam frameworks de nível superior que expõem âncoras, articulações de mão e APIs de malha através de extensões OpenXR.
Finalmente, ferramentas de criação como Blender, Spoke e Mozilla Hubs fecham o ciclo - permitindo que artistas e designers produzam, visualizem e implementem conteúdo sem software proprietário. O resultado é um pipeline completo e neutro em relação ao fornecedor, desde a criação de cena até a entrega.
O Estado do XR de Código Aberto em 2026
O ecossistema XR de código aberto em 2026 é mais maduro, mais pronto para produção e mais interconectado do que nunca. As melhorias XR do Godot, a adoção empresarial do Babylon.js, o pipeline de transmissão refinado do ALVR e a ampla adoção da indústria do OpenXR coletivamente elevaram o piso do que o código aberto pode entregar. Bloqueio de fornecedor não é mais uma inevitabilidade no desenvolvimento de XR.
Quer você esteja desenvolvendo para o navegador, um headset autossuficiente, uma estação de trabalho Linux ou um robô de pesquisa, existe um caminho de código aberto de alta qualidade para a produção. Os projetos neste diretório representam milhares de colaboradores e milhões de horas de desenvolvedor. Use-os bem - e considere contribuir de volta.