Das XR-Glossar: 150+ AR-, VR- und Spatial-Computing-Begriffe definiert
Jeden AR-, VR-, MR- und Spatial-Computing-Begriff, den du kennen musst — klar und prägnant definiert. Vom 6DoF bis WebXR, das vollständigste XR-Glossar online.
Jeden AR-, VR-, MR- und Spatial-Computing-Begriff, den du kennen musst — klar und prägnant definiert. Vom 6DoF bis WebXR, das vollständigste XR-Glossar online.
Das Branchenverzeichnis für XR, AR/VR und Spatial Computing.
Ob Sie ein Entwickler, Enterprise-Käufer, Journalist oder XR-Neuling sind – das Vokabular von Augmented Reality, Virtual Reality und Spatial Computing kann überwältigend wirken. Dieses Glossar umfasst über 150 wesentliche Begriffe – von grundlegenden Konzepten bis zu hochmodernen Techniken – damit Sie immer eine zuverlässige Referenz zur Hand haben. Speichern Sie es. Teilen Sie es. Nutzen Sie es.
Ein Open-Source-Web-Framework, das auf Three.js aufbaut und Entwicklern ermöglicht, WebXR-Szenen mit HTML-ähnlichem Markup zu erstellen. A-Frame ist beliebt für schnelle Prototypenerstellung und browsergestützte VR/AR-Erfahrungen. Verwandte Begriffe: WebXR, Three.js.
Digitale menschliche Darstellungen, die von künstlicher Intelligenz angetrieben werden und in der Lage sind, realistische Gesichtsausdrücke, Lippensynchronisation, Sprachsynthese und Konversationsinteraktion zu erzeugen. AI Avatars werden zunehmend in XR für Trainingssimulationen, virtuellen Kundenservice und Anwendungen mit sozialer Präsenz eingesetzt.
Eine kabellose PCVR-Streaming-Funktion von Meta, die es Meta Quest-Headsets ermöglicht, sich über ein lokales Wi-Fi-Netzwerk mit einem Gaming-PC zu verbinden und hochwertige VR-Inhalte ohne physisches Kabel zu streamen. Verwandte Begriffe: Virtual Desktop, Wi-Fi 6E.
Ein eigenständiges XR-Headset mit integrierter Rechenleistung, Speicher, Akku und Displays – kein externer PC oder Telefon erforderlich. Beispiele sind Meta Quest 3 und PICO 4. Verwandte Begriffe: Standalone VR Headset.
Digitale Referenzpunkte, die an reale Positionen gebunden sind und es ermöglichen, dass AR/MR-Inhalte über Sitzungen hinweg oder auf mehreren Geräten an einer bestimmten physischen Position verankert bleiben. Anchors sind grundlegend für persistente AR-Erfahrungen. Verwandte Begriffe: Spatial Anchors, World Locking.
Googles XR-Betriebssystem-Plattform, aufgebaut auf Android, konzipiert für Headsets und Smart Glasses. Angekündigt in Partnerschaft mit Samsung, treibt Android XR Geräte wie das Samsung Moohan Headset an und integriert Gemini AI.
Rendering-Techniken, die gezackte Kanten („Jaggies") auf 3D-Geometrie glätten. In XR sind gängige Methoden MSAA (Multi-Sample Anti-Aliasing) und FXAA (Fast Approximate Anti-Aliasing). Glatte Kanten sind in VR besonders wichtig, da das Display dem Auge sehr nahe ist.
Eine Technologie, die digitale Informationen – Bilder, Text, 3D-Modelle, Animationen – über die Ansicht des Benutzers der realen physischen Welt überlagert. AR kann über Smartphones, Tablets oder dedizierte AR-Brillen bereitgestellt werden. Die reale Welt bleibt die ganze Zeit über sichtbar. Verwandte Begriffe: MR, XR.
Googles AR-Entwicklungsplattform für Android-Geräte. ARCore ermöglicht Motion Tracking, Umgebungserkennung (Ebenenerkennung, Tiefe) und Lichtwertschätzung, wodurch Entwickler AR-Apps für Android-Telefone und Tablets erstellen können.
Apples AR-Entwicklungs-Framework für iOS und iPadOS. ARKit bietet World Tracking, Scene Understanding, Face Tracking und LiDAR-basierte Tiefenerkennung, die AR-Apps auf iPhones und iPads sowie visionOS-Erfahrungen auf Apple Vision Pro ermöglichen.
Eine von Meta entwickelte Technik, die Zwischenframes synthetisiert, wenn die GPU die Zielbildfrequenz nicht aufrechterhalten kann. ASW nutzt Motion Vectors und Tiefendaten, um neue Frames zu extrapolieren, was Ruckeln reduziert und sanfte wahrgenommene Bewegung selbst unter GPU-Last aufrechterhält. Verwandte Begriffe: Asynchronous Timewarp.
Eine Reprojektionstechnik, die den letzten gerenderten Frame anpasst, um Kopfbewegungen zu berücksichtigen, die zwischen Render-Zeit und Anzeigezeit aufgetreten sind, wodurch die wahrgenommene Latenz und Motion Sickness reduziert werden. ATW arbeitet auf Compositor-Ebene, unabhängig von der Anwendung. Verwandte Begriffe: Reprojection, Motion-to-Photon Latency.
Eine leistungsstarke Open-Source-3D-Engine für das Web mit robuster WebXR-Unterstützung. Babylon.js ist funktionsreich – Physik, PBR-Materialien, Post-Processing – und wird oft für komplexere WebXR-Anwendungen im Vergleich zu A-Frame gewählt. Verwandte Begriffe: WebXR, Three.js.
Das horizontale Sichtfeld, das beide Augen gleichzeitig in einem VR-Headset sehen können. Ein höherer binokularer Überlapp (näher an den ~114 Grad des menschlichen Auges) erhöht das Tiefengefühl und die Immersion. Verwandt: Field of View, IPD.
Ein kompaktes optisches Design, das in einigen AR-Brillen verwendet wird, bei dem ein Strahlteiler Licht von einem Mikrodisplay zum Auge reflektiert. Birdbath-Optiken sind einfacher und billiger herzustellen als Wellenleitern, haben aber tendenziell eine geringere Transparenz und ein schmaleres Sichtfeld. Verwandt: Waveguide, Pancake Lens.
Die Echtzeiterfassung und Abbildung der vollständigen Körperbewegungen eines Benutzers in einen virtuellen Avatar oder Interaktionsmodell. Body Tracking kann durch kameragestützte Computer Vision, tragbare Sensoren oder eine Kombination davon erreicht werden. Verwandt: Hand Tracking, Face Tracking.
Ein Passthrough-Kamerabild, das in voller Farbe gerendert wird (im Gegensatz zu Schwarzweiß) und es Benutzern ermöglicht, ihre reale Umgebung durch einen Videofeed mit genauer Farbdarstellung zu sehen. Meta Quest 3 und Apple Vision Pro verfügen über Color Passthrough. Verwandt: Passthrough, Video See-Through.
Ein tragbares Eingabegerät, das in VR zur Interaktion mit virtuellen Umgebungen verwendet wird. Moderne VR-Controller integrieren 6DoF-Tracking, Tasten, Trigger, Analog-Sticks und oft haptisches Feedback. Einige Plattformen (Meta Quest, Apple Vision Pro) unterstützen auch Controller-freies Hand Tracking.
Eine Hardwarekomponente, die den Abstand vom Gerät zu Oberflächen in der Umgebung misst. Depth Sensors ermöglichen Szenrekonstruktion, Okklusion und Hand-/Objektverfolgung. Gängige Tiefenerfassungsmethoden sind Time-of-Flight, strukturiertes Licht und Stereokameras. Verwandt: Time-of-Flight, LiDAR.
Ein virtuelles Abbild eines physischen Objekts, Systems oder einer Umgebung, das mit Echtzeitdaten synchronisiert wird. In XR ermöglichen Digital Twins Ingenieuren und Bedienern, reale Systeme – von Fabrikhallen bis zu städtischer Infrastruktur – in einer immersiven Umgebung zu visualisieren, zu simulieren und mit ihnen zu interagieren.
Die Bildschirmtechnologie, die in einem XR-Headset verwendet wird. Gängige Typen sind LCD, OLED, Micro-OLED und MicroLED, jede mit unterschiedlichen Kompromissen bei Helligkeit, Kontrast, Reaktionszeit und Stromverbrauch. Verwandt: OLED, Micro-OLED, MicroLED.
Ein Befehl, der von der CPU an die GPU gesendet wird und sie anweist, ein bestimmtes Mesh mit einem bestimmten Material zu rendern. Übermäßige Draw Calls sind ein großer Performance-Engpass beim Echtzeit-XR-Rendering. Batching und Instancing sind häufige Techniken zur Reduzierung der Draw-Call-Anzahl. Verwandt: Rendering, Shader.
Die Anwendung von XR-Technologie in professionellen und industriellen Kontexten – Training, Remote Assistance, Design Review, Lagerlogistik, Gesundheitswesen und mehr. Enterprise XR priorisiert oft Haltbarkeit, Verwaltbarkeit und ROI gegenüber Consumer Entertainment. Verwandt: XR Training, XR for Remote Assistance.
Der übergeordnete Oberbegriff für alle immersiven Technologien, die die physische und digitale Welt zusammenführen: Augmented Reality (AR), Virtual Reality (VR) und Mixed Reality (MR). XR beschreibt das gesamte Spektrum von vollständig real bis vollständig virtuell. Verwandt: AR, VR, MR.
Der Abstand zwischen der Okularlinse und dem Auge des Benutzers, in dem das gesamte Sichtfeld sichtbar ist. Headsets mit größerem Eye Relief bieten Brillenträgern mehr Komfort. Verwandt: IPD, Field of View.
Technologie, die die Ausrichtung und Bewegung der Augen eines Benutzers in Echtzeit misst. Eye Tracking in XR ermöglicht Foveated Rendering (Rendering mit voller Qualität nur dort, wohin der Benutzer schaut), Blick-basierte Interaktion und Social-Presence-Funktionen wie natürlichen Blickkontakt in Avataren. Verwandt: Foveated Rendering, Eye-Tracked Foveated Rendering.
Ein fortgeschrittenes Foveated-Rendering-Verfahren, bei dem der hochauflösende Render-Bereich in Echtzeit dem Blick des Benutzers folgt, wie er durch die integrierte Eye-Tracking-Hardware erkannt wird. Dies ist deutlich effizienter als Fixed Foveated Rendering. Verwandt: Foveated Rendering, Eye Tracking.
Erfassung von Gesichtsausdrücken in Echtzeit - Augenbrauenheben, Lächeln, Mundbewegungen - typischerweise mit Kameras und Computer Vision oder dedizierten Gesichtssensoren. Face Tracking ermöglicht ausdrucksstarke soziale Avatare und wird in Apples Vision Pro Persona-Funktion und Metas Quest Pro verwendet. Verwandt: Body Tracking, AI Avatars.
Das Winkelmaß der beobachtbaren Welt, die durch ein XR-Headset zu einem bestimmten Zeitpunkt sichtbar ist, gemessen in Grad. Das menschliche binokulare Sehen umfasst etwa 200 Grad horizontal. Consumer-Headsets bieten typischerweise 90-120 Grad horizontales FOV. Ein höheres FOV erhöht die Immersion. Verwandt: Horizontal FOV, Vertical FOV, Binocular Overlap.
Ein Teil des Hand Tracking, das sich auf die Erkennung der individuellen Position und Biegung jedes Fingergelenks konzentriert. Feines Finger Tracking ermöglicht präzise Pinch-Gesten, Virtual-Keyboard-Eingabe und detaillierte Hand-Objekt-Interaktionen. Verwandt: Hand Tracking.
Eine Form von Foveated Rendering, bei der der hochauflösende Bereich in der Mitte des Displays fixiert ist (wo die meisten Benutzer hinschauen), ohne Eye Tracking zu verwenden. Weniger adaptiv als Eye-Tracked Foveated Rendering, benötigt aber keine Eye-Tracking-Hardware. Verwandt: Foveated Rendering, Eye-Tracked Foveated Rendering.
Eine Rendering-Optimierungstechnik, die Rechenressourcen auf den zentralen Bereich des Sichtfelds konzentriert (wo das Auge fokussiert ist), während die Qualität in der Peripherie reduziert wird. Nutzt die begrenzte periphere Sehschärfe des Auges aus, um erhebliche GPU-Kosten zu sparen. Verwandt: Fixed Foveated Rendering, Eye-Tracked Foveated Rendering.
Die Anzahl der pro Sekunde gerenderten und angezeigten Bildrahmen, gemessen in Hz oder fps. XR-Headsets zielen typischerweise auf 72, 90, 120 oder sogar 144 Hz ab. Höhere Bildraten reduzieren Judder und Motion Sickness. Verwandt: Refresh Rate, Judder, Motion-to-Photon Latency.
Ein kompaktes Linsendesign, das in vielen VR-Headsets verwendet wird und konzentrische Nuten zur Lichtbrechung nutzt, wodurch Gewicht und Tiefe im Vergleich zu herkömmlichen Linsen reduziert werden. Fresnel-Linsen sind kostengünstig, können aber „God Rays" (Lichrartefakte) bei hellem Inhalt auf dunklem Hintergrund erzeugen. Verwandt: Pancake Lens, Waveguide.
Eine neuartige 3D-Szenendarstellungstechnik, die Szenen als Millionen von 3D-Gaussian-„Splats" statt Polygonen oder NeRF-Volumen modelliert. Gaussian Splatting ermöglicht fotorealistische Echtzeitrendering von aus Fotos/Videos erfassten Szenen und gewinnt schnell an Bedeutung für XR-Visualisierung. Verwandt: NeRF, Photogrammetry, Point Cloud.
Die Anwendung von Generative-AI-Modellen - für Bilder, 3D-Assets, Audio, Text und mehr - in XR-Kontexten. Generative AI ermöglicht die schnelle Erstellung virtueller Umgebungen, NPC-Dialoge, personalisierte Inhalte und dynamisches Weltaufbau in Echtzeit. Verwandt: AI Avatars, Neural Radiance Fields.
glTF (GL Transmission Format) ist ein offenes Standarddateiformat für 3D-Modelle und Szenen, das für effiziente Übertragung und Laden in Echtzeitanwendungen entwickelt wurde. GLB ist die binäre Containerversion von glTF. glTF wird weit verbreitet in WebXR, AR Quick Look und plattformübergreifenden 3D-Asset-Pipelines verwendet. Verwandt: USD, USDZ.
Die Echtzeiterfassung und Zuordnung der Hand- und Fingerpositionen eines Benutzers mit Kameras und Computer Vision, ohne physische Controller zu benötigen. Hand Tracking ermöglicht natürliche, controllerfreie Interaktion in XR. Meta Quest, Apple Vision Pro und HoloLens unterstützen alle Hand Tracking. Verwandt: Finger Tracking, Controller.
Physische Empfindungen - Vibrationen, Kraft, Textur - die dem Benutzer vermittelt werden, um Berührung in einer virtuellen Umgebung zu simulieren. In XR werden Haptics am häufigsten über Vibrationsmotoren in Controllern bereitgestellt, aber fortgeschrittene Lösungen umfassen haptische Handschuhe und ultrasonische Mid-Air-Haptics. Verwandt: Haptics.
Die Untersuchung und Verwendung von Technologie, die den Tastsinn bei digitalen Interaktionen simuliert. In XR verbessern Haptics die Immersion, indem sie Benutzern ermöglichen, virtuelle Objekte, Oberflächen und Ereignisse zu „fühlen". Verwandt: Haptic Feedback, Controller.
Der allgemeine Begriff für jedes XR-Gerät, das auf dem Kopf getragen wird und VR-Headsets, AR-Brillen und Mixed-Reality-Headsets umfasst. HMD ist die Hardware-Kategorie, die alles von Meta Quest bis Microsoft HoloLens bis Apple Vision Pro umfasst. Verwandt: Standalone VR Headset, AR Glasses.
Eine Display-Technologie, die die Wahrnehmung dreidimensionaler Bilder erzeugt, die im Raum zu schweben scheinen, indem sie Interferenzmuster von Licht verwendet. Echte holografische Displays befinden sich noch weitgehend in der Forschungsphase; einige Geräte (wie HoloLens) verwenden den Begriff lose, um wellenleiter-basierte durchsichtige Displays zu beschreiben. Verwandt: Light Field Display, Waveguide.
Das Sichtfeld, das von links nach rechts über die Breite des Displays gemessen wird. Horizontal FOV hat die größte Auswirkung auf das Immersionsgefühl und das periphere Sehen in VR. Verwandt: Field of View, Vertical FOV.
XR steht für Extended Reality — ein Oberbegriff, der Augmented Reality (AR), Virtual Reality (VR) und Mixed Reality (MR) abdeckt. Er beschreibt jede Technologie, die die menschliche Wahrnehmung der realen Welt durch digitale Inhalte erweitert oder ersetzt.
AR (Augmented Reality) überlagert digitale Inhalte auf die reale Welt, die du noch sehen kannst. VR (Virtual Reality) ersetzt die reale Welt vollständig durch eine simulierte Umgebung. MR (Mixed Reality) verbindet beide, sodass digitale Objekte mit der physischen Welt interagieren können.
6DoF (Six Degrees of Freedom) bedeutet, dass ein Gerät Bewegungen in alle sechs räumlichen Richtungen verfolgen kann: vorwärts/rückwärts, links/rechts, oben/unten, plus Pitch-, Yaw- und Roll-Rotationen. Dies ermöglicht dir, physisch in einem virtuellen Raum herumzugehen und dich zu beugen, was ein viel immersiveres Erlebnis schafft als 3DoF.
Foveated Rendering rendert nur den Bereich, auf den dein Auge fokussiert, in voller Auflösung, während periphere Bereiche in niedrigerer Auflösung gerendert werden. Eye-tracked Foveated Rendering nutzt Echtzeit-Eye-Tracking-Daten, um deinen Blick zu folgen und reduziert die GPU-Last dramatisch ohne wahrnehmbaren Qualitätsverlust.
OpenXR ist ein offener, lizenzgebührenfreier Standard der Khronos Group, der eine gemeinsame API für XR-Anwendungen und Runtimes definiert. Er ermöglicht es Entwicklern, XR-Code einmal zu schreiben und auf mehreren Headsets und Plattformen bereitzustellen, ohne plattformspezifische Umschreibungen.