VIRTUAL REALITY

Seminar: Innovative Benutzungsschnittstellen



Birgit Labusch    und    Fin Schuppenhauer

(30. Juni 1995)

Danksagung

Für die Unterstützung bei der Vorbereitung zu unserem Referat möchten wir uns bei den folgenden Personen und Firmen bedanken:
Herrn Schildt von der Karstadt AG, Hamburg, der uns sofort das CyberMaxx-System zur Verfügung gestellt hätte, wenn es noch im Sortiment gewesen wäre.
Der Firma Megabrain, Hamburg die uns ebenfalls unterstützt hätte. Leider gibt es die Firma seit einem Jahr nicht mehr.

Unser ganz besonderer Dank geht an Herrn Andreas Schöbel und die Firma Virtual Reality Technologies, Groß-Umstadt, für die kostenlose Bereitstellung einer SpaceMouse und der VR-Software Superscape Visualizer. Ohne die Unterstützung von VRT wäre unser Vortrag recht trocken gewesen.

Und wir bedanken uns bei den Mitarbeitern des Virtuality Cafés in Berlin, die uns (vor den Öffnungszeiten) unseren ersten Einstieg in den Cyberspace ermöglichten.

Die Adressen der hier aufgeführten Firmen sind im Anhang A zu finden.


Inhalt

   
1. Einführung

   
1.1 Begriffe

Der Modebegriff Virtual Reality (VR) wird sehr vielfältig benutzt. Vor allem Werbekampagnen bezeichnen damit alles, vom Computerspiel bis zu pornographischen Aufnahmen auf CD [LA94]. Die Ursache liegt wohl darin, daß es sehr viele und sehr allgemeine Definitionen für Virtual Reality gibt. Im Hacker's Dictionary  [Ray93] findet man beispielsweise folgende Erklärung:
virtual reality: 1. Computer simulations that use 3-D graphics and devices such as the DataGlove to allow the user to interact with the simulation. [...]
Virtual Reality läßt sich daher wohl besser definieren, wenn wir beschreiben, was VR leisten muß (vgl. [Nur93] und [LA94]):
3D
VR ist ein dreidimensionales Medium, im Gegensatz zu zweidimensionalen Fensteroberflächen wie MS Windows, Motif oder anderen und eindimensionalen Kommandointerpretern. Die Darstellung muß zudem in Echtzeit erfolgen und bestimmten Gesetzen gehorchen (z.B. physikalischen: Wenn etwas losgelassen wird, dann fällt es auch herunter).

Immersion1
Der Benutzer/Teilnehmer soll das Gefühl haben, in der künstlichen 3D-Welt anwesend zu sein.

In [PT92] gibt es eine sehr schöne Tabelle (Tabelle 1), die den Immersionsgrad beschreibt.

 
Immersions-Schwelle
nicht interaktiv interaktiv
geringe Bildrate hohe Bildrate
geringe Bildkomplexität hohe Bildkomplexität
langweilig spannend
kein Ton 3D-Sound
Monitor Head-Mounted-Display
geringe Auflösung hohe Auflösung
monoskopisch stereoskopisch
kleines Blickfeld großes Blickfeld
keine Kopfverfolgung Kopfverfolgung
$\leftarrow$ nicht-immersiv stark immersiv $\rightarrow$
Tabelle 1: Auswirkungen verschiedener Eigenschaften auf die Immersivität

Inklusion
Ein Teilnehmer, der in die virtuelle Welt eintauchen kann, ist zugleich auch Teil von ihr (meistens jedoch nur seine Hand).

Navigation
Der Teilnehmer muß sich in der Datenwelt auch bewegen können. Dafür stehen Eingabegeräte wie der Datenhandschuh oder 3D-Mäuse zur Verfügung.

Interaktivität
Er muß die Möglichkeit haben, die künstliche Welt verändern zu können.

Multi-Sensorik
VR-Systeme sprechen nicht nur den Sehsinn, sondern auch noch andere Sinne (z.B. den Tastsinn) an.

Position
-serfassung von Körper (meist nur die Hand), Kopf und Augen.

Natülichere Interaktion
Die VR-Ein-/Ausgabegeräte sollen eine natürlichere Interaktion zwischen Teilnehmer und Computer herstellen. In VR-Systemen agiert man mit einem computer-generierten Objekt und nicht mit einem computer-generierten Bild eines Objekts.
Neben Virtual Reality werden häufig auch die Begriffe Virtual Environment  und künstliche Wirklichkeit verwendet (letztere sollte aber nicht mit dem Folgenden verwechselt werden).

Der Begriff Artificial Reality  wurde von Myron Krueger  definiert und beschreibt ein videobasiertes, interaktives Computersystem [Gig93]. Krueger will eine natürlichere Art der Interaktion mit dem Computer entwickeln, der Benutzer soll nicht in unbequeme Datenhandschuhe und Head-Mounted-Displays gezwungen werden. Sattdessen nimmt eine Videokamera die Umrisse oder Hände auf. Dies wird beispielsweise in Kruegers Projekten VIDEOPLACE  und VIDEODESK  ausgenutzt [Kru93].  

Bei VIDEOPLACE agiert der Umriß des Benutzers (dank Bildverarbeitungstechniken) mit grafischen Objekten und künstlichen Lebewesen, den CRITTERS (siehe Abbildung 1).

  
Abbildung 1: Ein VIDEOPLACE-Anwender stupst einen CRITTER durch die Gegend.

Bei diesem System können auch mehrere (bis zu 50) Personen zusammen auf dem Bildschirm agieren. Beispielsweise können so Kinder ihre Eltern schrumpfen lassen oder selbst an einem Faden baumeln, der von einer Hand herunterhängt.

Im VIDEODESK-System werden die Umrisse der Hände von einer Kamera oberhalb des Tisches aufgenommen. Die Hände dienen dabei als Ersatz für die Maus (oder einen Datenhandschuh). Der Vorteil liegt dabei in der natürlicheren Handhabung, das Erlernen des Umgangs mit der Maus entfällt und die Beschränkung auf nur einen Punkt (Mauszeiger) wird ebenfalls aufgehoben. So können zum Beispiel ganz einfach Splinekurven gezeichnet werden. Die Interaktion erfolgt durch Gesten (Abbildung 2).

  
Abbildung 2: Bei VIDEODESK kann auf ganz natürliche Art und Weise eine Splinekurve gezeichnet werden.

Unter Telepräsenz  versteht man das Arbeiten an einem anderen Ort. Gewöhnlich steht an diesem anderen Ort ein Roboter, der mit zwei Kameras versehen ist und so dem Steuernden ein stereoskopisches Bild vermittelt. Mittels Datenhandschuh (oder anderen Eingabegeräten) kann er den Roboter steuern. Die Sensordaten des Roboters (Druck, Temperatur usw.) werden dem Operator für ihn ungefährlich übermittelt.

Eine Variante der Telepräsenz ist die Mixed Reality. Die Umgebung des Roboters wird nicht von Stereokameras erzeugt, sondern kommt als Grafik aus dem Computer.

Bei Augmented Reality  (AR) Systemen werden Computergrafiken auf transparenten Displays dargestellt. Auf diese Weise sieht der Träger gleichzeitig die reale Umgebung und die computergenerierte Welt. Angewendet wird dies besonders in der Medizin, z.B. kann ein Chirurg so gleichzeitig seinen Patienten und dessen Computer-Tomograph-Aufnahmen sehen.

Der Begriff Cyberspace  tauchte erstmals in dem Roman Neuromancer  [Gib87] von William Gibson  auf und wird oft falsch eingesetzt, um Virtual Reality zu beschreiben. Tatsächlich ist mit Cyberspace der Gibsonsche Informations-Raum gemeint, den Daten-Cowboys mit sogenannten ,,cyberspace decks`` (eine Art Gehirn-Computer-Interface) besuchen.

,,Kyberspace [sic!]. Unwillkürliche Halluzination, tagtäglich erlebt von Milliarden Berechtigten in allen Ländern, von Kindern zur Veranschaulichung mathematischer Begriffe ... Grafische Wiedergabe abstrahierter Daten aus den Banken sämtlicher Computer im menschlichen System. Unvorstellbare Komplexität. Lichtzeilen in den Nicht-Raum des Verstands gepackt, gruppierte Datenpakete.``
Die einzelnen Rechner sind dabei durch die sogenannte Matrix verbunden:
,,Die Matrix ist eine abstrakte Darstellung der Beziehungen zwischen Datensystemen. Legitimierte Programmierer koppeln sich an den Matrixsektor ihres Arbeitgebers an und finden sich wieder inmitten der bunten geometrischen Formen, die die Firmendaten darstellen. [...] Legitimierte Programmierer sehen die Wände aus Eis [= Elektronisches Invasionsabwehr-System] nicht, hinter denen sie arbeiten, die Schattenwände, die ihre Operationen abschirmen vor anderen, vor Industriespionage-Artisten und Gaunern [...].`` [Gib88]
Heute ist der Begriff Cyberspace ein richtiges Modewort geworden und wird vielfältig mißbraucht. So wird häufig auch das World Wide Web (WWW) als Cyberspace bezeichnet. Die fehlende Dreidimensionalität und das Immersionsgefühl werden derzeit durch das VRML-Projekt behoben (VRML = Virtual Reality Modeling Language, siehe [Gra95] und [SW95]).

Kleine Anekdote am Rande: AutoDesk  wollte den Prototyp ihres VR CAD -Systems unter dem Namen Cyberspace als Handelsmarke registrieren lassen. Daraufhin teilte Gibson der Firma mit, daß er seinerseits prüfe, ob sich der Name Eric Gullichsen  als Handelsmarke registrieren lasse. Eric Gullichsen war einer der Entwickler von VR CAD bei AutoDesk.

1.2 Geschichte

  Die Geschichte der VR ist mal gerade eben 30 Jahre alt. Sie beginnt bei jemandem, der überhaupt nichts mit Computern zu tun hatte und auch heute noch nicht hat.

1962 stellte Morton Heilig sein vor (siehe Abbildung 3). Dieser Simulator war für Spielhallen gedacht. Der Besucher sitzt auf einem beweglichen Stuhl und sieht einen stereoskopischen Film einer Motorradfahrt durch New York. Hinzu kommt noch der passende Sound und sogar Geruch und Wind! Damit hatte dieser Simulator alle Komponenten (und sogar noch mehr) heutiger VR-Systeme. Das einzige, was fehlte, war die Interaktivität.

Drei Jahre später veröffentlichte dann der eigentliche Begründer der virtuellen Realität, der Computergrafik-Pionier Ivan Sutherland, seine Vorstellungen des Ultimate Displays [Sut65]:

,,We live in a physical world whose properties we have to come to know well through long familiarity. We sense an involvement with this physical world which gives us the ability to predict its properties well. For example, we can predict where objects will fall, how well-known shapes look from other angles, and how much force is required to push objects against friction. We lack corresponding familiarity with the forces on charged particles, forces in nonuniform fields, the effects of nonprojective geometric transformations, and high-inertia, low friction motion. A display connected to a digital computer gives us a chance to gain familiarity with concepts not realizable in the physical world. It is a looking glass into a mathematical world. [...]

If the task of the display is to serve a looking-glass into the mathematical wonderland constructed in computer memory, it should serve as many senses as possible. [...]

With appropriate programming such a display could literally be the Wonderland into which Alice walked.``

1968 beschrieb er das erste Head-Coupled-Display  (HCD) für eine Augmented-Reality-Anwendung. Bei seinem ,,Sword of Damocles`` (so benannt, da mehrere Kilogramm Hardware von der Decke auf den Benutzer herunterhingen), erzeugten zwei seitlich neben den Ohren angebrachte CRTs die Bilder, die durch halbdurchlässige Spiegel auf das Auge projeziert wurden. Zu sehen gab es ein Drahtgittermodell eines Würfels, um den man sich herumbewegen konnte (Abbildung 4).

  
Abbildung 4: Ivan Sutherlands ,,Sword of Damocles``.

Sutherland erkannte den Nutzen seiner Technik für das Training von Piloten und gründete 1970 zusammen mit David Evans die Firma Evans and Sutherland, die heute hochwertige Simulatoren konstruiert.

Die Entstehung der Virtual Reality ist sehr eng verbunden mit der Entwicklung von Flugsimulatoren. Der erste Flugsimulator wurde 1929 entwickelt, der sich jedoch auf die Simulation eines reinen Instrumentenflugs beschränkte. Mit der Verfügbarkeit von Videokameras Anfang der 50er änderte sich dies: Der Pilot steuerte mit seiner Flugzeugnachbildung eine Kamera, die über einem Modell eines Flughafens angebracht war. Das Bild der Kamera wurde auf einem Monitor in der Frontscheibe gezeigt.

Mit der Weiterentwicklung der Computer wurden die Pappmaché-Modelle mehr und mehr durch 3D-Objekte aus dem Computer ersetzt. Die Qualität dieser Simulatoren wurde durch die Bildrate (wie schnell kann ein neu berechnetes Bild angezeigt werden; gemessen in fps = frames per second) und den Detailreichtum einer Szene begrenzt. So konnten 1973 bei einem Modell, das aus 200 bis 400 Polygonen bestand, Bildraten von 20 fps erreicht werden (zum Vergleich: Der Detailreichtum des menschlichen Auges beträgt 80 Millionen Polygonen).

1979 experimentierte das Militär mit Head-Mounted-Displays (HMDs). Das Ergebnis war der VITAL Helm, der aufgrund seines Gewichts und der Ungewohntheit durch halbdurchlässige Linsen zu schauen, jedoch wenig Akzeptanz fand.

Etwa zur gleichen Zeit in der Sutherland sein HCD entwickelte, ,,erfand`` Myron Krueger seine Artifical Reality, bei der Teilnehmer auf natürliche Art und Weise mit vom Computer generierten Objekten agieren konnte (siehe Seite [*]).

Mit der Zeit wurden die Flugzeuge so kompliziert, daß die Piloten nicht mehr oder kaum noch in der Lage waren, alle Fähigkeiten eines Kampfjets zu beherrschen: Eine falsche Bewegung oder Knopfdruck und der Düsenjäger schmierte ab. So wurde 1982 das VCASS-System (Virtually Coupled Airborne Systems Simulator) von Tom Furness vorgestellt. Es bestand aus einem HMD (wegen seines Aussehens auch als ,,Darth Vader``-Helm bezeichnet) und einem 6D2-Positions- und Orientierungs-Tracker. Zu sehen war ein vom Computer generiertes Abbild der Umgebung. Im Display wurden Fluginformationen und wichtige Objekte (Feindflugzeuge, Radaranlagen u.ä.) angezeigt. Dadurch wurde die mentale Belastung des Piloten verringert, da nur noch die wichtigsten Sachen angezeigt wurden. Zudem war es auch egal, ob es gerade bewölkt oder Nacht war: Die virtuelle Landschaft wurde aus Radar- und Satellitendaten generiert. Aus dem VCASS-Projekt entstand später das SuperCockpit-Projekt.

Anfang der 70er beschäftigte sich Frederick Brooks an der University of North Carolina (UNC) mit der Kraftrückkopllung (force feedback) und entwickelte das GROPE II-System. Grundlage war ein Argonne Remote Manipulator (ARM) (von der Industrie benutzt, um z.B. radioaktives Material zu behandeln), der mit zusätzlichen Motoren versehen wurde, um dem Benutzer ein Widerstandsgefühl zu vermitteln. Mit dem GROPE-II-System sollten Moleküle angedockt werden, doch leider war die Computertechnik noch nicht in der Lage, derart komplexe Gebilde zu simulieren. Das System verschwand im Keller und wartete auf seine Wiedererweckung...

Dies geschah 1986 und es wurde das GROPE III-System entwickelt. Jetzt konnte der Chemiker die elektrischen Kräfte der Moleküle fühlen. Das System wurde außerdem um eine LCD-Shutter-Brille ergänzt, um einen dreidimensionalen Eindruck zu erhalten.

An der UNC wurden erstmals auch CAD-Daten interaktiv visualisiert. Auf einem Laufband konnten Besucher durch ein neues Gebäude gehen, das noch gar nicht existierte. So konnten Designfehler behoben werden.

1984 wollte Michael McGreevy auch für das NASA Ames ein VR-System entwickeln. Dazu wurde ihm ein Etat von 10.000 Dollar genehmigt. Bereits im Besitz grundlegender Hardware fehlte ihm eigentlich nur noch ein HMD. Also besuchte er Tom Furness auf der Wright-Patterson Air Force Base, um den Helm aus dem VCASS-System zu erwerben:

,,Kein Problem``, sagte dieser, ,,für eine Million Dollar kannst du's haben.``.
,,Nein, nein``, antwortete McGreevy, ,,ich will nur den Helm und nicht das ganze System¡`.
,,Ich meinte auch nur den Helm.``

Frustriert verließ McGreevy den Stützpunkt und kam bei Radio Shack3 vorbei. Im Schaufenster entdeckte er eine Neuheut aus Japan: Den Sony Watchman für $79.95! Sofort kaufte er zwei davon, versah ihn noch mit anderer notwendiger Elektronik und schon war er im Besitz des ersten HMDs auf der Welt, das keine 2000 Dollar kostete. Fertig war sein Virtual Visual Environment Display (VIVED).

1985 stieß Scott Fisher zum NASA VIVED Projekt hinzu und brachte neue Ideen wie den Datenhandschuh, 3D-Sound und Force-Feedback mit ins Spiel.

Der Datenhandschuh wurde übrigens von Thomas Zimmermann erfunden, der damit eigentlich die perfekte Luftgitarre bauen wollte. Er schließ sich später mit Jaron Lanier zusammen (Lanier entwicklte derzeit eine Programmiersprache für Nicht-Programmierer und macht dies auch noch heute) und gründete 1985 VPL Research, dessen erstes Produkt der berühmte DataGlove war.

Seit den Entwicklungen von McGreevy und Fisher ist VR-Technik so günstig geworden, daß nicht nur das Militär die nötigen Geldmittel hat.

   
1.3 Bestandteile eines VR-Systems

Ein vernünftiges VR-System stellt sehr hohe Anforderungen an die Hard- und Software und besteht aus den folgenden vier Komponenten (siehe auch Abbildung 5 [PT92]):


  
Abbildung 5: Skizze der Elemente eines einfachen VR-Systems.

Ein-/Ausgabegeräte
Mit den Ein- und Ausgabegeräten (effectors) verschafft sich der Cybernaut den Zugang zur virtuellen Realität. Die Ausgabegeräte präsentieren für ihn den Cyberspace und mit den Eingabegeräten kann er sich darin bewegen.

Zu den notwendigen Eingabegeräten gehört der Datenhandschuh und ein Trackingsystem (ein Sensor/Empfänger auf dem HMD und Handschuh; ein oder mehrere Sender fest im Raum installiert). Zu den Ausgabegeräten gehören als Minimalausstattung nur die Bildschirme des HMD.

Dieses System kann um die folgenden Geräte ergänzt werden:

Reality Engine
Die Reality Engine ist das Herzstück eines jeden VR-Systems. Es ist der Computer samt externer Hardware (die nicht Ein- oder Ausgabegerät ist).

Die meisten Bildschirme in den HMDs erwarten die Signale in der amerikanischen NTSC-Fernsehnorm, Grafikkarten der PCs und Workstations kreieren aber überwiegend RGB-Signale (RGB = rot, grün, blau). Daher muß ein RGB-NTSC-Konverter zwischengeschaltet werden. Hauptaufgabe dieses Scan-Konverters ist es, das non-interlaced Signal der Grafikkarte in ein interlaced Signal zu transferieren.4 Leider können diese Konverter zum Teil so teuer werden wie die gesamte Workstation alleine.

Viele VR-Systeme arbeiten mit zwei Reality Engines, wobei jede Maschine einem Auge zugeteilt wird. In diesem Fall spielt die Synchronisation der beiden Rechner eine große Rolle.5

Soll die virtuelle Welt noch um eine 3D-Geräuschkulisse ergänzt werden, so muß der 3D-Sound-Prozessor die Geräuschquellen vor der Ausgabe noch verarbeiten. Der Ton muß zudem synchron zum Bild geliefert werden (die zwei Bilder bei stereoskopischen Systemen übrigens auch -- eine gar nicht so leichte Aufgabe!).

Die Kommunikation mit den Eingabegeräten (Datenhandschuh, Tracker) erfolgt über die Ein- und Ausgabeschnittstellen, wobei die Daten zum Teil schon vorverarbeitet werden (z.B. wandelt eine Elektronik im Datenhandschuh die Fingerkrümmung in binäre Werte um).

Applikation
Die Applikation als Teil der Software beschreibt den Kontext der Simulation. Sie bestimmt die dynamische Struktur, die Interaktionsmöglichkeiten und die virtuell-physikalischen Gesetze (d.h. wann sich eine Tür öffnet, wie Objekte in der virtuellen Welt verschoben werden können und wohin fallengelassene Gegenstände fallen).

Die Software muß in Echtzeit die Szenen berechnen und darstellen können. Professionelle Systeme ,,verpulvern`` die Rechenzeit in Detaildarstellung, wenn sich der Benutzer nicht bewegt. Verändert er seine Position wird dagegen mehr Wert auf einen flüssigen Ablauf gelegt und weniger Details berechnet, damit die Latenzzeit so gering wie möglich ist.

Außerdem müssen die gelieferten Positionsdaten verarbeitet werden, z.B. um festzustellen ob der Teilnehmer mit einer Wand kollidiert ist. Bei Mehrbenutzer-VR-Systemen steigt dieser Verwaltungsaufwand rapide an. Zudem muß für jeden Teilnehmer sein eigenes Sichtfeld berechnet und dargestellt werden und der oder die anderen irgendwie in die Szene eingesetzt werden.

Datenbasis
Die Datenbasis (geometry) bestimmt die physikalischen Attribute der Objekte (Farbe, Form, Ort usw.). Aus diesen Informationen generiert die Applikation die virtuelle Landschaft.

1.4 Anwendungen der VR-Technik

Die typischen Anwendungsfelder der Virtual Reality finden sich in den folgenden Gebieten:
Architektur
Eins der Hauptanwendungsgebiete der VR ist die Architektur. Die bereits vorhandenen 3D-CAD-Daten können sehr einfach zur Generierung der virtuellen Welt herangezogen werden. Dadurch läßt sich wesentlich besser abschätzen, wie ein zukünftiges Gebäude wirkt, ob seine Zimmer groß genug sind, wie die Lichtverhältnisse sind usw. Gerade Inneneinrichtungen lassen sich so hervorragend erstellen, indem Tische, Stühle, Wände etc. in der virtuellen Welt verschoben werden. Dies erleichtert auch die Interaktion zwischen Architekt und Kunde, denn für den Kunden ist es oft sehr schwierig, wenn er sich das fertige Produkt auf einer 2D-Vorlage vorstellen muß. Kann er sich aber schon vor Fertigstellung des Projektes ein virtuelles Bild verschaffen, kann er sogar noch stärker an Designfragen beteiligt werden.

In Japan wird diese Methode sogar schon in der Wirtschaft eingesetzt: Die Kunden eines Kücheneinrichters müssen die Maße ihrer Küche angeben und können sie dann nach Herzenslust in der virtuellen Welt einrichten. So werden Enttäuschungen vermieden, wenn die Möbel nicht passen oder die Komponenten zusammen unschön aussehen.

Medizin
In der Medizin kommen vor allem Augmented-Reality-Systeme (to augment = vergrößern) vor. Dies ist insofern sehr nützlich, als daß der Arzt bei einer Operation nicht mehr ständig zwischen Patient und der Vergrößerung am Bildschirm hin und her blicken muß, denn er hat ja bereits die Vergrößerung vor Augen (siehe Abbildung 6).


  
Abbildung 6: Bei dieser Augmented-Reality-Anwendung sieht der Arzt sowohl seine Patienten als auch die Ultraschallaufnahmen des noch ungeborenen Kindes.

Außerdem kommen VR-Systeme bei Operations-Vorbereitungen oder bei der Ausbildung zum Einsatz; die Medizinstudenten können auf diese Weise realitätsnäher ausgebildet werden, als wenn sie z.B. an Gummipuppen üben müssen.

Die VR-Forscher und Mediziner können sich auch Remote-Operationen vorstellen, bei denen sich der oder die Spezialisten mittels VR-Techniken bei komplizierten Operationen einklinken. Derartige Systeme würden sich auch in Gebieten eignen, deren Ärztedichte sehr gering ist (oder auch um Verwundete an Frontlinien zu behandeln).

Mit Hilfe von VR werden heute auch schon Phobien untersucht. So beschäftigt sich eine Gruppe am GVU (Graphic, Visualization and Usability Center) des Georgia Institute of Technology derzeit mit der Höhenangst. Die Personen betreten einen virtuellen Fahrstuhl und fahren in den 50. Stock; selbst bei einer sehr geringen Bildschirmauflösung werden noch die typischen Symptome der Höhenangst festgestellt ([Hod95] und [Ber95]).

Ein Problem für die VR in der Medizin stellt die lange Entwicklungszeit dar, denn es müssen langwierige Testphasen durchlaufen werden (bis zu zehn Jahre), um mögliche Fehler zu vermeiden. Besonders in den USA ist in den letzten Jahren die Angst vor möglichen Schadensersatzklagen von Patienten gestiegen und so ist besondere Vorsicht bei neuen ,,Wundertechnologien`` angebracht.

Es gibt bereits Konferenzen, die sich ausschließlich dem Thema VR in der Medizin widmen (z.B. ,,CVRMed '95`` [Aya95] und ,,Medicine Meets Virtual Reality III`` [Sat95])

Wissenschaftliche Visualisierung
Schon mal durch das Universum geflogen und dem Verschmelzungsspiel der Galaxien zugeschaut? Oder Moleküle aus der Nähe betrachtet? Oder eine Expedition in die Welt der Apfelmännchen unternommen?

Mittels Virtual Reality kann man sich auf Atomgröße schrumpfen lassen (Die ,,Phantastische Reise`` läßt grüßen) und neue Moleküle zusammensetzen (z.B. mit dem GROPE-III-System an der University of North Carolina, wo mit Force-Feedback und VR-Technik schon neue Enzyme für die Medizin entwickelt wurden).

Eine andere Idee ist es, Aktien an der Wertpapierbörse durch ein Weizenfeld darzustellen. Steigt der Kurs einer Aktie, reift die Pflanze heran, fällt er, verfault sie. Mittels VR kann man nun über das Feld fliegen und die geeignete Aktie ,,ernten``.

Telepräsenz
Das Zusammenspiel von Robotorn und VR ermöglicht es, an gefährlichen Orten (bei Löscharbeiten in brennenden Häusern, bei Bombenentschärfungen, in Kernkraftwerken, an der Frontlinie) gefahrenlos zu arbeiten.

Der Telepräsenz kommt gerade bei der NASA eine große Aufmerksamkeit zu Gute, da nur durch diese Technik der Bau von Raumstationen kostengünstig möglich sein wird. Aufgrund der langen Übertragungszeiten sind jedoch keine Echtzeitanwendungen möglich, so daß ein ganzer Arbeitsablauf vorher auf der Erde festgelegt wird und dann komplett übertragen wird.

Aber auch hier bei uns in Deutschland wird fleißig in Sachen Raumfahrt und Telepräsenz geforscht. Das ROTEX-Projekt (Space Robot Technology Experiment) der DLR (Deutsche Luft- und Raumfahrtgesellschaft) benutzt beispielsweise LCD-Shutter-Brillen mit stereoskopischen 3D-Grafiken auf Silicon Graphics Workstations [Spe94].

Militär
Das Sprichwort ,,Wenn Blicke töten könnten...`` ist beim Militär inzwischen Realität geworden. Das SuperCockpit erlaubt dem Kampfpiloten einen wesentlich streßfreieren Fight. Auf seinem transparenten Head-Up-Display bekommt er alle notwendigen Flugdaten angezeigt; er muß seinen Kopf nicht mehr ständig senken, um seine Instrumente abzulesen, denn wohin er fliegen muß wird ihm per Flugtunnel angezeigt. Raketenabschußbasen und Radaranlagen können sich nicht mehr in der Landschaft verstecken, denn im Display blinken ihre virtuellen Abbilder warnend. Ein Blick, und schon werden die Informationen des angeschauten Objekts angezeigt, z.B. ob Freund oder Feind. Die Zielautomatik folgt ständig der Blickrichtung des Piloten, noch ein Klick und schon ist der Feind vom Himmel gepustet und wir sind dem Frieden einen Schritt näher...

Simulatoren
Ohne die Flugsimulatoren wäre die VR gar nicht erst entstanden. Neben Flugzeugen lassen sich aber auch Autos, LKWs, Bagger, Schiffe usw. simulieren. Gleichzeitig spart dies Kosten im Bereich der Schulung (heute ist es teurer einen echten LKW zu Schrott zu fahren als einen LKW-Simulator anzuschaffen) und auch in der Konstruktion (siehe Bulldozer-Beispiel in [Ada93] und [Wan95]).

Unterhaltung
Und Simulatoren sind auch als Computerspiele sehr begehrt. In der Tat ist die Unterhaltung der dritte Hauptbereich der VR-Industrie. Man denke nur an den PowerGlove von Mattel (für ca. 100 Dollar). Sega und andere große Spielekonsolenhersteller entwickeln derzeit auch günstige HMDs für die nächste Konsolengeneration [Pos95].

Telekommunikation
Große Kommunikationsunternehmen wie z.B. NTT (Nippon Telephone and Telegraph) forschen derzeit auf dem Gebiet der VR-Telekommunikation [Rhe95]. Dann können sich die Partner nicht nur hören und sehen (Bildtelefon), sondern auch fühlen und gemeinsam im Cyberspace agieren. HMDs sind hier aber nicht geeignet, da dadurch das Mimikspiel versteckt wird. Also trägt man Shutter-Brillen und verwendet Form-Scanner (3D-Scanner), um das Abbild naturgetreu im Cyberspace zu plazieren.

Cybersex und Hochzeiten6 im Cyberspace sind aber keine Phantasien mehr, sondern schon Wirklichkeit [Rhe95], [3SA95].

   
2. Fenster zu virtuellen Welten

Der wichtigste Bestandteil eines jeden VR-Systems ist das VR-Display , das einem die virtuellen Welten vor Augen führt. Bevor wir auf die verschiedenen Techniken der VR-Displays eingehen, betrachten wir noch mal kurz das menschliche Auge und wie wir sehen.

   
2.1 Das menschliche Auge

Das wichtigste Sinnesorgan des Menschen sind seine beiden Augen. Es besteht aus dem optischen System (der Hornhaut (Cornea), vorderer Kammer, Linse und Glaskörper), das ein umgekehrtes und verkleinertes Bild der Umgebung auf die Netzhaut (Retina) projeziert (siehe Abbildung 7, vgl. [Gla94] und [Nur93]).
  
Abbildung 7: Das menschliche Auge im Querschnitt.

Auf der Retina befinden sich die Sehzellen, die Stäbchen und Zapfen. Von letzteren gibt es drei verschiedene Arten, die sich auf blaues, grünes und gelbes Licht (entsprechend kurzen bis langen Lichtwellen) spezialisiert haben. Die meisten Zapfen befinden sich dichtgedrängt in der Sehgrube, der Fovea. Hier haben wir die beste Sehschärfe. Nach außen hin nehmen die Zapfen sehr schnell ab, dafür steigt aber die Zahl der Stäbchen. Mit ihnen nehmen wir Helligkeitsunterschiede und Bewegungen wahr.

Damit wären die ,,technischen Details`` der Datenaufnahme abgehandelt. Viel wichtiger ist aber das, was die ,,Software``, unser Gehirn, leistet, um aus den rohen Daten Informationen zu generieren. Eine wichtige Frage ist, wie wir Tiefe wahrnehmen. Obwohl der Mensch (wie die meisten anderen Lebewesen auch) über zwei Augen verfügt, können wir bereits mit nur einem Auge Tiefe wahrnehmen. Dies ist dank vieler Hinweise möglich (es sei noch erwähnt, daß es für unser Auge/Gehirn überhaupt keine kognitive Arbeit kostet, aus den Pixelinformationen Form, Farbe etc., also die visuellen Merkmale, zu extrahieren):

Lineare Perspektive
Sie äußert sich darin, daß parallele Linien zum Horizont hin zusammenlaufen, sich also Straßen oder Häuser verjüngen, je weiter sie entfernt sind.

Okklusion
Objekte im Vordergrund verdecken Objekte im Hintergrund vollständig oder auch nur teilweise.

Schatten
haben einen erheblichen Einfluß auf unsere Tiefenwahrnehmung, da sie Objekte in Beziehung setzen können (z.B. gerade dann, wenn der Schatten eines Objektes auf ein anderes fällt).

Detailreichtum
Objekte im Vordergrund erscheinen uns sehr viel detaillierter. Je weiter ein Objekt entfernt ist, desto weniger Details können wir ausmachen, sie beginnen zu verschwimmen.

Dunst
Durch Dunstschleier verwischen entfernte Objekte und sie erscheinen bläulicher.

Bewegungsparallaxe
Wenn wir unsere Position verändern, verschieben sich nahe Objekte mehr als weiter entfernte.

Durch die Kombination dieser visuellen Hinweise können wir also auch nur mit einem Auge Tiefe empfinden. Allerdings sind hier Fehler nicht ausgeschlossen. Dies ist erst durch das binokulare (stereoskopische) Sehen möglich. Dadurch, daß unsere Augen etwa 6,5 cm auseinanderliegen, nimmt jedes Auge ein etwas anderes Bild wahr. Aus diesen beiden kann das Gehirn sofort die Tiefe ermitteln. Genau auf dieser Fähigkeit beruhen die bekannten Magic Eye-Bilder7. Zum stereoskopischen Sehen sind 95% der Menschheit befähigt, bei den verbleibenden 5% ist die Ursache im Astigmatismus8 zu finden.

    
2.2 VR-Displays

Bei der Konstruktion von VR-Displays sind folgende Dinge zu berücksichtigen:
Blickfeld
Der Mensch hat, dadurch daß er seine Augen bewegen kann, ein Blickfeld von ungefähr 180 Grad und bestimmt in erheblichem Maße das Immersionsgefühl: Ab etwa 90 Grad meinen wir, uns tatsächlich in der virtuellen Welt zu befinden und nicht nur ein dreidimensionales Bild zu sehen. Das Blickfeld typischer Datenhelme liegt zwischen 80 und 140 Grad.

Auflösung
Die sehr kleinen Bildschirme der Datenhelme haben eine deutlich geringere Auflösung als die Monitore von PCs. Beispielsweise können LC-Displays nur ungefähr 30.000 bis 40.000 Farbpixel darstellen, ein Monitor dagegen 30 mal soviel. D.h., daß die virtuelle Welt sehr viel gröber ist.

Komplexität
Die Szenen des Cyberspace setzen sich aus Polygonen zusammen. Je mehr Polygone, desto detailreicher erscheint eine Szene. Desto mehr Rechenpower wird aber auch benötigt, da der Computer nicht ewig Zeit hat, eine Szene zu berechnen. Eine hervorragende Lösung, den Detailreichtum zu erhöhen, ist die Verwendung von Texturen, die auf Objekte gelegt werden.

Bildrate
Die Bildrate wird dadurch bestimmt, wie schnell eine neue Szene berechnet und angezeigt wird. Eine Szene muß in einer Zeit gerendert werden, die kürzer als ein Augenblinken ist, denn erst ab 30 fps (frames per second) erscheint eine Bewegung fließend und ruckelfrei. Man beachte, daß bei stereoskopischen VR-Systemen jeweils zwei Bilder für eine Szene berechnet werden müssen!

Latenzzeit
Wie lange dauert es, bis wir eine Veränderung ein Szene bemerken? Furchtbar wenig, nämlich gerade eben mal 50 Millisekunden. Das bedeutet, wenn wir unseren Kopf bewegen, dürfen wir nicht sehr viel mehr als 50 Millisekunden verstreichen lassen, um die neue Szene anzeigen zu lassen. Diese wahrnehmbare Verzögerung ist für die VR ein sehr großes Hindernis, denn bevor eine neue Szene berechnet werden kann (was alleine schon sehr viel Zeit benötigt) müssen die Positionsdaten ausgewertet werden. Im schlechtesten Fall ergibt sich eine Verzögerung von bis zu einer viertel Sekunde (dies ist der Hauptgrund für das Auftreten der Simulationskrankheit).

Engagement
Wenn wir fernsehen nimmt der Fernseher gerade mal 5% in unserem Blickfeld ein. Warum aber haben wir bei spannenden Filmen das Gefühl, an der Handlung teilzuhaben, wo wir doch zu 95% Dinge sehen, die überhaupt nichts mit dem Film zu tun haben (nämlich unser Wohnzimmer)? Ganz einfach: Dem Film geben wir unsere volle Aufmerksamkeit. Ganz ähnlich ist es bei virtuellen Szenen: Wenn wir das Gesehene interessant finden, ist das Gefühl selbst auch in der Szene zu sein, sehr viel höher.

Damit haben wir nun die Faktoren, die ein VR-Display bestimmen, aufgezeigt. Von der technischen Seite her lassen sich die Displays wie folgt kategorisieren (vgl. [Ute95]):

   
2.2.0.1 Nicht-immersive Systeme

Diese Systeme verwenden entweder einen üblichen Monitor oder einen Projektor . Auf dem Monitor wird jeweils für einen kurzen Augenblick das Bild für das eine und danach das Bild für das andere Auge dargestellt. Damit der Benutzer nun nicht zwei übereinadergelagerte Bilder sieht, braucht er noch eine Shutter-Brille . Die Shutter-Brille sorgt dafür, daß immer nur ein Auge das Monitorbild sehen kann. Um ein Flimmern zu vermeiden, muß der Wechsel mindestens 30mal pro Sekunde stattfinden, d.h. der Monitor (bzw. Projektor) muß 60 Bilder in der Sekunde darstellen können. Der Bildwechsel am Monitor muß synchron mit dem Wechsel in der Brille erfolgen.

Die Shutter-Brillen bestehen aus transparenten LC-Display s und werden per Infrarot-Signal ferngesteuert. Dadurch hängt der Benutzer nicht an lästigen Kabeln und hat mehr Bewegungsfreiheit. Zudem kann er immer noch die tatsächliche Umgebung sehen und wird nicht, wie bei den Head-Mounted-Displays, völlig von der Außenwelt abgeschnitten. Meist verfügen die Brillen noch über einen Tracking-Sensor, der dem Rechner mitteilt, wohin der Benutzer seinen Kopf gerade gedreht hat.

  Ein erfolgreiches Anwendungsbeispiel von Projektoren und Shutter-Brillen ist die CAVE  der University of Illinois (CAVE = CAVE Automatic Virtual Environment) [DSC93]. Die ,,Höhle`` besteht aus drei Wänden à Metern. Die Rückwand und die Decke fehlen. Vier Projektoren stellen die virtuellen Welten dar (für jede Wand einen Projektor, der vierte projeziert auf den Fußboden). Der Höhlenbesucher trägt eine Shutter-Brille inkl. Tracking-Sensor und in der Hand ein Eingabegerät (ebenfalls mit Tracking-Sensor), mit dessen Hilfe er Objekte manipulieren oder Menüs aufrufen kann. Die Bilder werden 60mal pro Sekunde und Auge dargestellt (d.h. die Bildwiederholrate beträgt 120 Hz).

Um das Raumgefühl zu erhöhen, sorgen acht in den Ecken angebrachte Lautsprecher für den richtigen 3D-Sound.

Der Vorteil dieses Systems ist, daß sich bis zu zehn Personen gleichzeitig in der CAVE befinden können. Außerdem entfallen dadurch lästige Berechnungen, die nötig wären, um ein Abbild eines jeden Besuchers darzustellen, wenn HMDs zum Einsatz gekommen wären.

Obwohl unter den nicht-immersiven Systemen aufgeführt, bietet die CAVE ein besseres Immersionsgefühl als HMD-basierte Systeme.

   
2.2.0.2 Semi-immersive Systeme

Semi-immersive Systeme verwenden sogenannte Arm-mounted Displays . Sie sind im Prinzip wie HMDs aufgebaut, nur daß man das HMD nicht auf dem Kopf trägt, sondern an einem mechanischen Arm befestigt ist, den man sich dann heranziehen kann (daher auch manchmal als Head-Coupled-Display  (HCD) oder Boom bezeichnet).


  
Abbildung 8: Ein Head-Coupled-Display (HCD) im Einsatz.

Der Arm ist frei beweglich und mit Tracking-Sensoren bestückt, um den richtigen Ausschnitt aus der virtuellen Welt zu erzeugen.

   
2.2.0.3 Immersive Systeme

Die immersiven Systeme bilden die Heimat für die Head-Mounted-Display s (HMD s).

Die HMDs verwenden entweder Kathodenstrahlröhren (sind also typische Monitore -- nur sehr viel kleiner), auch CRT s genannt (CRT = Cathode Ray Tube ), oder Flüssigkeitskristall-Displays (LCD  = Liquid Crystal Display ). Die CRTs haben gewöhnlich eine bessere Bildschärfe, mehr Kontrast und eine höhere Auflösung als die LCDs. Dafür sind sie aber auch teurer und schwerer. Nicht zu vergessen ist die Strahlenbelastung  (siehe auch Abschnitt 8).


  
Abbildung 9: Die Visette, ein HMD von Virtuality, wird in der Unterhaltungs-VR eingesetzt.

Durch eine spezielle Weitwinkeloptik wird ein Blickfeld von mehr als 90 Grad erreicht. Alle HMDs haben einen Positionssensor, um die Kopfposition zu ermitteln. Viele verfügen auch über 3D-Audioausgabe.

Nachteilig wirkt sich vor allem das Gewicht dieser Geräte von zum Teil mehr als 2 kg aus. Durch die Kabel zur Kontrolleinheit wird zudem auch noch die Bewegungsfreiheit eingeschränkt. Und dann ist da noch der Preis: Von Karstadts CyberMaxx für 2000 DM bis hin zum FOHMD der NASA für 500.000 DM ist alles dabei.

Am HITL (Human Interface Technology Laboratory) der University of Washington, Seattle, wird derzeit die nächste Generation der VR-Displays entwickelt. Sogenannte Virtual Retina Displays (VRDs) werden durch ihr leichteres Gewicht und höherer Auflösung die herkömmlichen CRTs und LCDs ersetzen. Ein modulierter Lichtstrahl scannt dabei das Bild Pixel für Pixel direkt auf die Netzhaut. Die neuesten Prototypen (unter anderem auch auf der VR World '95 Ende Februar in Stuttgart gezeigt) erreichen schon jetzt VGA-Auflösung (640x525 Pixel) in Farbe bei einem Blickfeld von 40 Grad [Spe95].

   
2.3 Aufbau eines Head-Mounted-Display

Abbildung 10 zeigt den Aufbau eines einfachen Head-Mounted-Displays. Es besteht aus zwei kleinen Bildschirmen, die die Bilder getrennt für jedes Auge liefern, einem Kopfhörer-System und einem Positionssensor, der die Signale eines Senders empfängt und an den Computer zurückliefert. Ein HMD ist also sowohl ein Ausgabe- als auch ein Eingabegerät (nähmlich die Positionsdaten des Kopfes). Der Sender ist nicht selbst Bestandteil des HMDs, sondern gehört zum Tracking-System und ist irgendwo fest im Raum installiert.


  
Abbildung 10: Grobe Skizze eines Head-Mounted-Displays

Schauen wir uns nun als Beispiel die Optik eines HMDs der NASA Ames etwas genauer an (siehe Abbildung 11).

  
Abbildung 11: Aufbau der Optik eines HMD

Die LC-Displays sind etwa fünf bis sieben Zentimeter vom Auge entfernt angebracht. Durch die vorgelagerten Linsen werden die Bilder der beiden Displays auf ein größeres Blickfeld gebracht und das Fokussieren vereinfacht (siehe unten).

Die von der NASA verwendete LEEP9-Optik erzeugt eine anamorphische Darstellung. Bei diesem, aus der Kinotechnik bekannten, Verfahren10 können Objekte im Vordergrund sehr viel detailreicher dargestellt werden und bei weiter entfernten auf Details bei der Darstellung verzichtet werden (siehe Abbildung 12).


  
Abbildung 12: Das linke Bild zeigt eine anamorphische Darstellung der gleichen Szene des rechten, linear dargestellten, Bildes.

Bei der anamorphischen Darstellung zieht der Vorteil der detailreicheren Darstellung im Vordergrund leider einen Nachteil mit sich: Parallele Linien werden gekrümmt. Dieser ,,Nadelkissen-Effekt`` (pincushion effect) muß von der Darstellungssoftware ausgeglichen werden, was wiederum mehr Rechenzeit bedeutet.

Es wurde in Abschnitt 2.1 schon erwähnt, daß die Augen beim Durchschnittsmenschen etwa 6,5 cm auseinaderliegen. Natürlich hat jeder Mensch einen etwas anderen Augenabstand (interpupillary distance = IPD), so daß die Bildschirme für jeden Benutzer eigentlich neu justiert werden müßten, um das Bild richtig zu fokussieren. Liefert die Optik jedoch einen großen Pupillenausgangsdurchmesser, so kann dieser Vorgang entfallen.

Ein zweites Problem ist der Achsenabstand der Optik. Er wird für gewöhnlich so gewählt, daß er der durchschnittlichen IPD entspricht. Dies bedeutet jedoch, daß einige Benutzer nach außen schielen müssen (wie bei den ,,Magic Eye``-Bildern), damit sich die beiden Bilder zu einem neuen, dritten vereinigen. Dies ist jedoch meist schwieriger als die Blickachsen zu kreuzen. Letzteres kann aber dadurch erreicht werden, indem man einen etwas kleineren Abstand wählt.

Oft ist es jedoch aus Platzgründen nicht möglich die Optik so zu plazieren. Der Achsenabstand ist dann meist größer als eigentlich gewünscht. Dies kann einerseits durch sogenannte ,,fresnel prims``, die die Bilder zusammenschieben, oder andererseits durch die Darstellungs-Software ausgeglichen werden. Bei der Software-Variante wird einfach das gesamte Bild auf dem Bildschirm verschoben.


In den früheren LCD-HMDs kamen hauptsächlich die Displays aus den Sony Watchmans zum Einsatz. Inzwischen gibt es aber schon diverse Eigenentwicklungen. LCDs sind sehr viel billiger als Kathodenstrahl-Bildschirme, jedoch haben sie ein paar unschöne Nachteile.

Zum einen ist die Auflösung sehr viel geringer als bei CRTs. Dies wird besonders dann zu einem Problem, wenn es auf eine detailreiche Darstellung ankommt. Zum anderen sind aber gerade deshalb auch die einzelnen Pixelelemente deutlich sichtbar. Zwischen den Pixelelementen befindet sich, technisch bedingt, ein kleiner Abstand. Leider hat aber unser Auge eine Vorliebe für Ecken und scharfe Grenzen, so daß sich die virtuelle Welt hinter einem Maschenzaun präsentiert (siehe Abbildung 13).


  
Abbildung 13: Links eine virtuelle Szene wie sie auf einem Computer-Monitor zu sehen ist. Das rechte Bild soll den Mascheneffekt verdeutlichen, wie er bei LC-Displays auftritt. Die hier dargestellte Szene stammt übrigens aus dem Fahrstuhl-Experiment des Phobia-Projektes am GVU.
(Hinweis: Das rechte Bild liegt leider nur noch in der "Papier"-Version vor.)

Dieser Effekt kann dadurch gemindert werden, daß direkt vor den LC-Displays ein Pixel-Diffuser angebracht wird, der das ganze leicht unscharf macht. VPL hat zudem noch ein feines, zufälliges Punktmuster auf diesen Diffuser aufgebracht, um dem Auge eine höhere Auflösung vorzugaukeln.


CRTs haben gegenüber den LCDs den Vorteil der höheren Auflösung, besseren Bildschärfe und des Bildkontrastes. Daher eignen sie sich insbesondere für Head-Up-Displays (HUDs), d.h. Datenhelmen bei denen sowohl die virtuelle als auch die reale Welt betrachtet werden kann (Augmented Reality). Abbildung 14 zeigt ein solches Head-Up-Display.


  
Abbildung 14: Skizze eines Head-Up-Displays mit CRTs.

Die meisten CRTs liefern jedoch nur ein Schwarzweiß-Bild. Eine Möglichkeit Farbe ins Spiel zu bringen ist es, LCD-Farbfilter zwischenzuschalten. Ein Bild setzt sich dann aus den drei Grundfarben Rot, Grün und Blau zusammen: Das CRT liefert die Helligkeitsinformation der einzelnen Farben, der LCD-Filter die Farbe selber. Es versteht sich von selbst, daß ein einfaches monochromes Bild nun mit der dreifachen Bildfrequenz dargestellt werden muß (z.B. statt 60 Mhz nun 180 Mhz); spezielle und teure Hochgeschwindigkeits-Elektronik ist vonnöten.

Ein anderes Problem, das bedacht werden muß ist, daß durch die CRTs mehrere tausend Volt neben den Ohren brutzeln.


Eine Letzte, etwas extravagante Variante der HMDs ist die Verwendung von Glasfaserkabeln. Hier werden die Vorteile der LCDs und CRTs vereinigt. Allerdings ist es äußerst kompliziert, die richtige Anordnung der einzelnen Fasern zu einem ,,Bildschirm`` zu gewährleisten. Dies macht das Ganze gar fürchterlich teuer.


Zum Abschluß dieses Abschnitts gehen wir noch auf den Unterschied zwischen monoskopischen und stereoskopischen VR-Systemen ein. Abbildung 15 macht dies schon deutlich.


  
Abbildung 15: Die obere Skizze zeigt den Aufbau eines stereoskopischen VR-Systems, unten ein monoskopisches.

Bei stereoskopischen VR-Systemen wird eine virtuelle Szene für jedes Auge getrennt berechnet, bei monoskopischen jedoch nur ein einziges Bild, das beiden Augen zugeführt wird. In Abschnitt 2.1 haben wir gesehen, daß wir auch mit nur einem Auge Tiefe wahrnehmen können. Monoskopische Systeme machen sich aber auch noch das Engagement zunutze. Je mehr der Teilnehmer an der virtuellen Welt interessiert ist, desto mehr fühlt er sich auch in sie hineinversetzt. Genau aus diesem Grund sind alle Spielhallen-VR-Systeme monoskopisch -- und sie sind genau deshalb auch sehr viel günstiger, da nur ein Bild berechnet werden muß und auch die Synchronisation entfällt.

   
3. Das menschliche Gehör

Ebenso wie das Sehen ist auch das Hören ein wichtiger Bestandteil vieler VR-Systeme, denn erst durch die Vereinigung beider Sinne wird das Gefühl ,,mitten im Geschehen zu sein`` richtig erlebt. So bekommt der Benutzer zum Beispiel ein viel besseres Raumgefühl, wenn er sich auch akustisch orientieren kann.

Grundlage für dieses räumliche Hören ist das binaurale (beidohriges) Hören. Dies sagt eigentlich nichts weiter aus, als daß ein Ohr weiter von der Schallquelle entfernt ist als das andere und der Schall somit in einem Ohr schneller ankommt. So ist unser Gehör sogar in der Lage im Vergleich einen Unterschied von nur einem dB auszumachen. Zum Vergleich: Leises Sprechen hat einen Wert von etwa 30 dB.

In einem VR-System werden die Ohren durch die Kopfhörer unabhängig voneinander akustisch gereizt. So führt schon das frühere Eintreffen des Schalls auf dem einen Ohr zu einem Raumeindruck. Dies allein reicht allerdings nicht aus, um festzustellen, ob das Geräusch von vorn oder hinten bzw. oben oder unten gekommen ist. Hierfür ist in entscheidendem Maße die Ohrmuschel verantwortlich, die ein Schallsignal jedesmal anders verzerrt, in Abhängigkeit vom Ort der Schallquelle. Und hierin liegt nun die Schwäche herkömmlicher Kopfhörer: Sie berücksichtigen die individuellen Ohrmuschelformen nicht. Um dem Abhilfe zu schaffen, wird überlegt, eine Art Paß einzuführen, in den die Maße, die in einer einmaligen Vermessung festgestellt werden, eingetragen werden. Sitzt der Benutzer dann an einem VR-System, so wird zunächst nach den persönlichen Parametern gefragt und danach paßt sich das System dann dem Benutzer individuell an.

4. VR-Eingabegeräte

   
4.1 Der Datenhandschuh

Er stellt wohl das wichtigste Instrument zur direkten Manipulation in VR-Systemen dar. Es gibt die Datenhandschuhe in ganz verschiedenen Ausführungen und Preislagen. Da haben wir zum Beispiel in der unteren Preislage den Power Glove von Mattel, den Nintendo als Eingabegerät für ihre Spielkonsolen benutzte. Der Aufbau dieses Handschuhs beruht auf elektrisch leitender Tinte, die auf vakuumgeformte Plastikstreifen gedruckt wird und jedem Finger folgen. Werden die Finger gebeugt, so verändert sich die elektrische Leitfähigkeit der einzelnen Streifen. Des weiteren gibt es den Dextrous Hand Master (DHM) von Exos (siehe Abbildung 16), der drei ringartige Mechanismen für jeden Finger besitzt. An jedem Fingergelenk mißt ein Sensor die Beugung mittels eines Verfahrens, das auf dem ,,Hall-Effekt`` beruht [Rhe95]. Der Handschuh ist zwar schwer anzulegen, hat aber den Vorteil, daß die Positionsbestimmungen sehr genau sind.


  
Abbildung 16: Der Dexterous Hand Master von Exos

Der VPL DataGlove (Abbildung 17) ist der am weitesten verbreitete Handschuh. Er ist sehr leicht und bequem zu tragen, da er aus Nylon hergestellt wird. Als visuelles Feedback wird eine virtuelle Hand simuliert, die man im Display sehen kann, sobald sich der DataGlove im Gesichtsfeld befindet. Es werden zwei Sensortypen verwendet: Zum einen Flex Sensoren, die auf der Glasfaseroptik basieren, um die Fingerbeugung festzustellen und zum anderen den Polhemus 3Space Isotrak, um die absolute Handposition bzw. -orientierung im Raum festzustellen (vgl. Abschnitt 6). Mit diesen beiden Komponenten ist es möglich, Handgesten für die Interaktion mit Graphikbildern oder Robotern zu duplizieren.


  
Abbildung 17: VPLs CyberGlove

Der Flex Sensor arbeitet mit Lichtleitfasern, die vom Handgelenk aus in einem Handschuh an den Fingern entlanglaufen (insgesamt zehn pro Handschuh). Das Licht wird von kleinen Dioden in die Fasern gesendet. Die Beugung jedes Gelenkes bestimmt unmittelbar die Lichtintensität (d.h. wieviel Licht passieren kann). Die Lichtmenge wird mit Photodioden (am Ende der optischen Fasern) gemessen. Die Signale werden über Interface-Einheit und serielle Schnittstelle in den Hostcomputer übertragen.

Der Polhemus 3Space Isotrak ist ein elektromagnetischer Sensor, der zur Bestimmung der absoluten Position verwendet wird. Er erlaubt es, bis zu sechzigmal pro Sekunde die X-, Y- und Z-Koordinaten mit einer Genauigkeit von 3,3 Millimetern sowie Dreh-, Neigungs- und Kippwinkel mit einer Genauigkeit von 0,8 Grad (insgesamt sechs Freiheitsgrade) zu ermitteln.

Dies wird allerdings mit einer hohen Störanfälligkeit bezahlt und genaue Werte werden auch nur geliefert, wenn die Entfernung zwischen Sensor und Source (Quelle) zwischen vier und 28 Zoll beträgt. Die Übertragung in den Computer erfolgt über eine serielle Schnittstelle.


  
Abbildung 18: Skizze des VR-Raumes zur Positionsbestimmung

Die Koordinaten werden folgendermaßen interpretiert (vgl. Abbildung 18):

Um die Genauigkeit der Aufzeichnung zu unterstützen, wird vor der Benutzung des DataGloves die jeweilige Hand formatiert bzw. kalibriert. Die Kalibration geschieht in einem einfachen, dreistufigen Verfahren anhand einer Kalibrations-Software. Die Hand muß dabei drei verschiedene Stellungen einnehmen. Einmal formatiert, speichert der DataGlove die Daten im sog. ,,Calibration Table``, um den Hostrechner nicht zusätzlich zu belasten. Der DataGlove kann fortan diese Handgesten erkennen und schickt die Aufzeichnungen weiter an den Hostrechner.

Das DataGlove-System besteht aus zwei Grundkomponenten: Dem DataGlove selbst und der Kontrolleinheit. Ihre Hauptaufgabe ist die Konvertierung der analogen Signale aus dem DataGlove in ein digitales Format, das vom Hostrechner verarbeitet werden kann. Die Kontrolleinheit überwacht außerdem die Source und die Stärke des Lichts, das durch optische Leitungen läuft.

4.2 VR-Mäuse

Beim Desktop-Bat (Abbildung 19) werden 3D-Daten auf einem 2D-Medium dargestellt. Das Bat ist eine Weiterentwicklung der herkömmlichen Maus und für eine 3D-Interaktion gedacht. Es werden fünf Freiheitsgrade unterstützt (Neigungs-, Dreh-, Kippwinkel, X- und Y-Achse). Für die Interaktion mit der 3D-Welt sind jedoch sechs Freiheitsgrade vorteilhafter. Der fehlende Freiheitsgrad wird mithilfe der Software ausgeglichen. Der jetzige Prototyp hat einen Neigungs- und Kippwinkel von jeweils 50 Grad und einen Drehwinkel von 360 Grad.


  
Abbildung 19: Das Desktop-Bat

Beim SpaceBall ist ein Ball auf einer Unterlage mit zahlreichen Kontrollknöpfen befestigt. Um die virtuellen Objekte zu bewegen, kann der Benutzer den Ball herumdrehen. Er kann die Kontrollknöpfe (am Ball und auf der Unterlage) drücken, um verschiedene Operationsmodi zu selektieren. Sechs Infrarot-LEDs, die die sechs Freiheitsgrade widerspiegeln, werden an einer Plastiksäule innerhalb des hohlen Balls befestigt. Auch innerhalb des Balls befinden sich infrarote Photosensoren, die die Richtung des Lichts (von LEDs) verfolgen können.

Die SpaceMouse der Firma Virtual Reality Technologies (siehe Abbildung 20), die uns freundlicherweise kostenlos für unseren Vortrag zur Verfügung gestellt wurde, unterstützt alle sechs Freiheitsgrade. Sie steht, wie viele heute üblichen 6D-Mäuse, fest auf dem Tisch und muß nicht mehr, wie z.B. die Maus von Logitech in der Luft herumbalanciert werden. Bei der Handhabung ist die SpaceMouse recht empfindlich, bei den ersten Eingabeversuchen überschlägt man sich leicht und kommt auch nicht immer dort hin, wohin man gerne möchte. Doch nach einiger Einarbeitungszeit und mit Hilfe der Superscape Visualizer-Software, sind die Erfolgserlebnisse doch recht gut. Als Hardware-Grundlage hat die SpaceMouse Leuchtdioden, um die Dreh- und Axialbewegungen zu erfassen. Der Preis für die SpaceMouse liegt momentan bei etwa 1500 DM.


  
Abbildung 20: Die SpaceMouse

5. Track-Techniken

Stellt Euch vor, ihr müßtet mit einem Schiff von Hamburg nach New York fahren, habt aber keinen Kompaß (geschweige denn die Möglichkeiten der Satellitennavigation) und der Himmel ist ständig bedeckt.

Ähnlich würde es dem Computer ergehen, wenn er eine neue Szene berechnen soll und weder weiß, wo Du Dich befindest, noch wohin Du schaust. Deshalb ist ein Tracking-System, daß ständig Deine Position im Raum ermittelt, unabdingbar. Neben der absoluten Kopfposition ist noch die Orientierung wichtig, d.h. in welche Richtung Du gerade blickst und wo sich Deine Hand befindet.

Es gibt vier verschiedene Tracking-Technologien:

Akustische Systeme
Mittels Ultraschall werden die Positionsdaten ermittelt. Die Sender befinden sich im HMD und der Maus/Datenhandschuh, der Empfänger ist irgendwo fest aufgestellt.

Optische Systeme
verwenden meist Infrarotstrahlen. Sie haben das Problem, daß sie nutzlos sind, wenn sich etwas zwischen Sender und Empfänger befindet. Sie werden meist zusammen mit Shutter-Brillen eingesetzt.

Zu den optischen Systemen gehören auch Videokameras mit anschließender Bildauswertung (wie bei Kruegers VIDEOPLACE/DESK). Diese Methode liefert aber die ungenauesten Resultate.

Elektromagnetische Systeme
haben mehrere Empfänger im Raum verteilt, die Sender befinden sich an den gewohnten Stellen. Sie liefern sehr genaue und schnelle Positionsangaben und eignen sich besonders für immersive Systeme. Am verbreitetsten sind hier die Polhemus-Tracker von McDonnel Douglas. Sie erreichen eine Auflösung von 3,3 Millimeter und können im Gegensatz zu den akustischen Trackern auch die Neigung feststellen. Allerdings ist auch ihr Spielraum begrenzt und andere elektromagnetische Quellen (Monitore, Computer, Metallgegenstände) können die Genauigkeit beeinflussen.

Mechanische Kombinationssysteme
kommen in den Arm-mounted Displays zum Einsatz, Beispiele sind der Boom (vgl. Abbildung 8) und die GROPE-Systeme.

   
6. Feedback bitte

Eins der größten Probleme, die die VR-Systeme haben, ist die fehlende taktile Rückmeldung. Wenn der Cybernaut eine Kaffeekanne hochhebt, kann er sie mit seiner physikalischen Hand nicht fühlen, schlimmer noch, er kann durch sie hindurchgreifen. Die Forschungen befinden sich hier erst noch in den Anfängen und es wird noch lange dauern, bis die virtuellen Äquivalente des Schlagens, Drückens, Streichelns, Küssens, Pieksens, Kratzens, Scheuerns, Leckens, Hauchens usw. perfekt simuliert werden können.

Zwei Probleme sind zu unterscheiden:

Taktiles Feedback
Es muß eine Möglichkeit geschaffen werden, den Tastsinn anzusprechen, um so verschiedene Oberflächenstrukturen zu erfühlen.

In diese Richtung geht zum einen der Touchmaster von Exos. Hierbei handelt es sich um einen gewöhnlichen Datenhandschuh, zusätzlich sind aber 30 Taschen eingearbeitet, die mit unterschiedlichen Luftdrücken gefüllt werden können.

Ein anderes Beispiel ist der Joystick von Magaret Minsky, der am MIT (Massachusetts Institute of Technology) entwickelt wurde. Mit ihm kann man durch virtuelles Eiswasser rühren oder über Sandpapier kratzen.

Kraftrückkopplung
(Force Feedback) Gerade bei Telepräsenz-Systemen müssen irgendwie die physikalischen Widerstände, z.B. von Molekülen oder verschiedenen Magnetfeldern simuliert werden. Ein Anwendungsbeispiel in diese Richtung ist das schon mehrmals erwähnte GROPE-System der UNC.

   
7. Ein Besuch im Cyberspace

Etwas über Virtual Reality zu erzählen, ohne selbst mal im Cyberspace gewesen zu sein, das schien uns nicht so das Wahre. Also begaben wir uns zu einem Bummel über die Reeperbahn. Dies war jedoch nicht von Erfolg gekrönt, denn in Sachen VR ist Hamburg wohl noch tiefste Provinz: ,,Virtual Reality? Ist das nicht sowas mit 3D? Nein, das haben wir nicht.``

Also fuhren wir auf gut Glück nach Berlin, vielleicht hatte die Hauptstadt ja mehr zu bieten. Und in der Tat, als wir in der Tourist-Information nachfragten, bekamen wir sofort die Adresse des Virtuality Cafés nahe dem Adenauerplatz.

Als wir jedoch gegen 12 Uhr dort ankamen, war das Café mit Gittern verschlossen, ein Schild mit den Öffnungszeiten nicht zu finden. So wollten wir schon leicht frustriert den Rückweg antreten, als uns doch noch geöffnet wurde. Der Besitzer des Cafés steckte seinen Kopf zur Tür heraus und fragte uns, ob wir von weit her kommen würden. Wir erzählten, daß wir aus Hamburg kommen und uns auf einen VR-Vortrag vorbereiten würden. Darufhin wurde uns bereitwillig aufgemacht und auch noch eine ausführliche Einführung in die VR-Geräte gegeben.


 
Abbildung 21: Birgit ist in die Billiardsimulation vertieft. Im Hintergrund sind die Stand-Up-Geräte zu sehen.

Das Café verfügt über vier (zwei mal zwei) Stand-Up und drei Sitzgeräte. Insgesamt probierten wir fünf verschiedene Spiele aus, wobei vier davon zu zweit gespielt werden. Zuerst probierten wir ein Alien-Abschieß-Ballerspiel in den Sitzgeräten aus. Wir hatten aber beide keine Ahnung, wie das Spiel funktionieren sollte. Das zweite Spiel, Dactyl Nightmare, lief wesentlich besser. Wir standen nun in den Stehgeräten und hielten jeder einen frei beweglichen Joystick in der Hand. Ziel dieses Plattformspiels war es, den Gegenspieler zu finden (und dann zu erschießen). Interessant war noch die Billiard-Simulation in einem Prototyp von Kaiser Electro-Optics. Hier war der Spieler die weiße Billiardkugel und spielte aus deren Perspective. Besonders angenehm war bei diesem Gerät auch der Datenhelm, der sich wesentlich besser tragen ließ. Dieser Helm wird mit Hilfe von zwei überkreuzten Bändern locker auf den Kopf gesetzt und muß nicht, so wie bei den anderen Geräten, mit einer Art Schraube am Kopf festgezogen werden. Ein weiterer Vorteil ist für Brillenträger gegeben, denn bei diesen Geräten kann die Brille aufbehalten werden, während die anderen dafür keinen Platz lassen (die Sehschärfe kann zwar an der Seite des Helmes eingestellt werden, ist aber lange nicht so genau wie die eigene Brille).


 
Abbildung 22: Fin auf der verzweifelten Suche nach seinem Gegner.

Wer nun selbst einmal spielen möchte, der muß mit 7 DM pro Spiel rechnen. Bei einer Zehnerkarte reduziert sich der Preis auf 5 DM. Ein Spiel dauert im Durchschnitt drei bis viereinhalb Minuten. Die Adresse des Virtuality Cafés ist im Anhang zu finden.

   
8. Simulationskrank!

Bisher gibt es noch so gut wie gar keine Untersuchungen, ob der Aufenthalt im Cyberspace  gesundheitliche Risiken  birgt. Sie beschränken sich auf die ,,Simulationskrankheit`` und auf die Strahlengefärdung durch CRT s.

Eine Untersuchung an der Universität Edinburg hat ergeben, daß zwölf von zwanzig Testpersonen nach einer zehnminütigen Fahrradtour durch den Cyberspace über Übelkeit, Kopfschmerzen und Schleier vor den Augen klagten.

Es wird vermutet, daß die Ursachen hierfür darin liegen, daß die verschiedenen Sinnesempfindungen nicht exakt übereinstimmen (also ganz ähnliche Phänomene wie bei der Seekrankheit  auftreten). Beispielsweise entsteht eine merkliche Zeitverzögerung zwischen der Kopfbewegung und der Darstellung der neu zu berechnenden Szene (je nach System einige oder mehrere Zehntelsekunden; der Mensch kann noch eine Latenzzeit von 50 Millisekunden wahrnehmen).

Ein Forschungsteam des britischen Verteidigungsministeriums ist gar zu dem Schluß gekommen, daß schwerwiegende Augenschäden nicht auszuschließen seien.

Inwieweit VR zu einer sozialen Abschottung oder Sucht (die Fluchtwelt ist auf Knopfdruck dar) führen kann, ist noch gänzlich ungeklärt.

Ein Problem werden auch die künftigen Billig-HMDs der Spielekonsolen-Hersteller sein, denn das Tiefenempfinden (vgl. Abschnitt 2.1) beruht auch auf Erfahrung. Da davon auszugehen ist, daß diese Head-Mounted-Displays aus Kostengründen monoskopisch sein werden, wird in [Pos95] ein Verlust der 3D-Sehfähigkeit bei Kindern befürchtet, die die Zielgruppe der Hersteller bilden.

   
9. Firmenadressen

Karstadt AG
Mönckebergstraße 16
20095 Hamburg


Virtuality Café
Lewishamstraße 1
10629 Berlin


Virtual Reality Technologies GmbH
Am Gewerbepark 1
64823 Groß-Umstadt

Literatur

3SA95
Bilder jenseits der Phantasie - Imagina '95 in Monte Carlo.
Aufgezeichnete Sendung von 3SAT, 1995.

Ada93
John A. Adam.
Virtual reality is for real.
IEEE Spectrum, Seiten 22-29, 1993.

Aya95
Nicholas Ayache (Herausgeber).
Computer Vision, Virtual Reality and Robotics in Medizine, volume 905 of Lecture Notes in Computer Science.
Springer, Berlin, 1995.

Ber95
Manfred Bertuch.
Höhenangst mit Virtueller Realität erfolgreich bekämpft.
c't, Seite 62, 1995.

DSC93
Thomas A. DeFanti, Daniel J. Sandin, und Carolina Cruz-Neira.
A `room' with a `view'.
IEEE Spectrum, Seiten 30-33, 1993.

EGJ93
R.A. Earnshaw, M.A. Gigante, und H. Jones (Herausgeber).
Virtual Reality Systems.
Academic Press, London, 1993.

Gib87
William Gibson.
Neuromancer.
Heyne, Müchen, 1987.

Gib88
William Gibson.
Chrom brennt.
In: Cyberspace, Seiten 209-236. Heyne, München, 1988.

Gig93
Michael A. Gigante.
Virtual reality: Definitions, history and applications.
In: Virtual Reality Systems, Seiten 3-14. Academic Press, London, 1993.

Gla94
Wilhelm R. Glaser.
Menschliche Informationsverarbeitung.
In: Edmund Eberleh, Horst Oberquelle, und Reinhard Oppermann (Herausgeber), Einführung in die Software-Ergonomie. de Gruyter, Berlin, 2 Auflage, 1994.

Gra95
Oliver Grau.
Gründerzeit -- Mit dem WWW auf dem Weg in virtuelle Welten.
ix, Seiten 86-91, 1995.

Hod95
Larry F. Hodges.
The phobia project.

http://www.cc.gatech.edu:80/gvu/virtual/Phobia, 1995.

Kru93
Myron W. Krueger.
An easy entry artificial reality.
In: Alan Wexelblatt (Herausgeber), Virtual Reality -- Applications and Explorations, Seiten 147-161. Academic Press, Boston, 1993.

LA94
Carl Eugene Loeffler und Tim Anderson (Herausgeber).
The Virtual Reality Casebook.
Van Nostrand Reinhold, New York, 1994.

Nur93
Karnadi Nurtantio.
Virtual Reality und Software-Ergonomie.
Diplomarbeit, Universität Hamburg, Fachbereich Informatik, 1993.

Pos95
Hilde-Josephine Post.
Technostreß durch Mängel bei Head-mounted Displays.
Computerwoche, 20:51-54, 1995.

PT92
Ken Pimentel und Kevin Teixeira.
Virtual Reality: Through the new looking glass.
Windcrest, New York, 1992.

Ray93
Eric Raymond (Herausgeber).
Hacker's dictionary.
Electronic Document, 1993.

Rhe95
Howard Rheingold.
Virtuelle Welten - Reisen im Cyberspace.
Rohwolt, Reinbek, 1995.

Sat95
Richard M. Satava et. al (Herausgeber).
Interactive Technology and the New Paradigm for Healthcare -- Medicine Meets Virtual Reality III Proceedings, volume 18 of Technology and Informatics.
IOS Press, Amsterdam, 1995.

Shn92
Ben Shneiderman.
Designing the User Interface.
Addison-Wesley, Reading, Ma., 2 Auflage, 1992.

Spe94
Tom Sperlich.
We continue searching: Virtual reality research in germany.
In: Carl Eugene Loeffler und Tim Anderson (Herausgeber), The Virtual Reality Casebook, Seiten 152-166. Van Nostrand Reinhold, New York, 1994.

Spe95
Tom Sperlich.
Virtuelle Zukunft -- Innovationsschub für VR-Anwendungen.
c't, Seite 86, 1995.

Sut65
Ivan E. Sutherland.
The ultimate display.
In: Proceedings of the IFIP Congress, Seiten 506-508, 1965.

SW95
Tom Sperlich und Florian Wenz.
Cyber-Web -- Dreidimensionale Welten auf dem Internet.
c't, Seiten 110-114, 1995.

Ute95
Michael Utermöhle.
Realität als Multiple Choice -- Grundlagen der Virtual Reality.
ix, Seiten 68-83, 1995.

Wan95
Oliver Wanke.
Schneller fertig.
WirtschaftsWoche, Seiten 85-87, 1995.


Birgit Labsuch und
Fin Schuppenhauer