Nächste Stufe „Niederschwellige VR“: Oculus Quest

Dieser Artikel beschreibt meinen ersten Eindruck von der „Oculus Quest“ – vorige VR-Nutzungen fanden per Smartphone (Google Cardboard, Samsung Gear VR) oder Standalone, ohne Gaming-PC (Oculus Go)  statt.

Mein Thema ist ja der niederschwellige Zugang zu VR & AR – Durch die Oculus Quest ist eine nächste beachtliche Stufe für VR erreicht. Mit 449 Euro zwar in etwa doppelt so teuer wie die Oculus Go, machen hier die kabellosen 6 DoF (also nicht nur Orientierungs- sondern auch Positions-Tracking) den wirklich großen Unterschied.

Foto Oculus Quest
Im ausgesprochen gut gemachten Quest-Tutorial  „First Steps“ werden die (im Vergleich zu 3 DoF neuen) Möglichkeiten sichtbar: Das Greifen und Bewegen von Objekten mittels der 2 Hand-Controller und Armbewegungen machen großen Spaß. Dem ganz banalen Papierflieger kann man lange zuschauen, wie er seine Runden dreht und nicht nur der Ball/Tischtennisschläger funktionieren vom Inside-Out-Tracking (Tracking-Algorithmus „Oculus Insight“) her ausgesprochen gut. Beim Starten der Quest wird eine Guardian-Zone definiert, innerhalb derer man seinen Platz definiert, in dem man sich räumlich gut bewegen kann und zum Glück merkt sich die Brille diese Koordinaten, so dass ich am nächsten Tag im gleichen Zimmer (Küche mit Kachelboden und viel Tageslicht) einfach weitermachen konnte.
Die Demo-Version von „BEAT SABER“ ist (im Vergleich zu den generell auf Samsung Gear VR / Oculus GO möglichen Anwendungen) ein Riesenunterschied und wie schon in den Vorab-Kritiken zu lesen war, auf der Oculus Quest eine durchaus sportliche und viel Spaß machende Anwendung und auch vom eingebauten Sound her völlig o.k.
Erstaunlich finde ich, wie viele Leute sich offensichtlich die Quest gekauft haben, obwohl sie schon über die dank Gaming-PC-Anschluss höhere Technik von Oculus Rift / htc Vive verfügen: Klar ist ein kabelloses Vergnügen toll, aber da muss man sich dann auch nicht wundern, dass das Mitschauen (kaum) möglich ist. Was sofort funktioniert, ist die Kopplung von Oculus-App des Smartphones (welches zum Ersteinrichten verwendet wurde) mit der Quest, so dass man immerhin auf dem Smartphone schauen kann, was derjenige, der gerade die Oculus Quest benutzt, sieht. Leider geht das z.B. bei „BEAT SABER“ nicht, aber zumindest das Tutorial „First Steps“, s.u. Foto, kann man ansatzweise als Zuschauer mitverfolgen.

Oculus Quest im Einsatz

Dem ersten Eindruck nach sehr gut und eine erhebliche Qualitätssteigerung zu meinen bisherigen VR-Möglichkeiten ist das Display: meine (per USB-Kabel auf die Quest kopierten) 360-Grad-Bilder sehen ungleich besser aus als auf den bisherigen Oculus Go / Samsung Gear VR. Das kann am OLED-Display mit 72Hz und der Auflösung 1600×1440 pro Auge liegen. Viel besser auch beim Stichwort „Augenabstand einstellen“ – bei der Oculus Go gab es hier keinen Drehregler und die Scharfstellung konnte ich eigentlich nur dadurch regeln, dass ich die Go tiefer nach unten schob, was wiederum extrem unbequem war. Zunächst empfand ich auch die Oculus Quest als unbequem und schwer, aber das gab sich schnell, sobald ich in spannenden Anwendungen unterwegs war.

Die Quest setzt (derzeit) auf Gamer mit entsprechenden Anwendungen, d.h. hier werde ich um diverse Käufe im Bereich von ca. jeweils 20 Euro nicht herumkommen, um weiter zu testen – Ich bin schon sehr gespannt auf „Tilt Brush“ und „Job Simulator“. Was sich bzgl. Quest-Anwendungen künftig im Bereich „Education“ tun wird, muss sich noch zeigen.

3D-Modellierung mit Blender

Wer einen guten und kostenlosen Einführungskurs in Blender (= 3D-Modelle erstellen) sucht: Dazu kann ich uneingeschränkt den edX-Kurs „Basic 3D Modeling using Blender“ (IIT Bombay) empfehlen, den ich gerade erfolgreich absolviert habe (Link Zertifikat). Der Arbeitsumfang war auf 4 Wochen mit 4-6 Stunden/Woche angelegt (ich habe mir mehr Zeit gelassen) und gliederte sich in 4 Kapitel:

1 Interface: Oberfläche Blender, Tastenkombinationen, verschiedene Views etc.

2 Transformation: Einfache Objekt-Manipulationen vorhandener Objekte entlang X/Y/Z-Achsen via Grab, Rotate und Scale / Umgang mit der Kamera und Rendering / Object Mode und Edit Mode / Mesh (Vertices, Edges, Faces) mit Grab, Rotate, Scale / Loop Cuts

3 Basic Modeling: Erstellen von einfachen Objekten wie Tisch & Stuhl mittels Extrude, Loop Cuts und Anwenden der Prinzipien aus Kapitel 2 / Benutzen von Subdivision Surface Modifiers & Edge Loops und Smooth Shading / Benutzen von Array Modifiers für sich wiederholende Formen

4 Material, Texture, Light: Farben, Effekte wie Spiegelungen & Transparenz / Texture für ‚Look und FEEL‘ / Lichtquellen mit verschiedenen Konfigurationen (Farben, Energy, Distance, Schatten, Winkel, 3-point-lighting)

Bei derartigen Themen sind aus didaktischer Sicht praktische Übungen besonders wichtig, und die gab es reichlich und gut nachvollziehbar bei steigendem Schwierigkeitsgrad. Insofern wäre der Kurs auch interessant für motivierte Personen ohne Vorkenntnisse. Das in MOOCs übliche Video-Format war für die Thematik ausgesprochen geeignet; dazu wurden die Folien mit den Essentials (zum Nachschlagen) dankenswerterweise auch als PDF zur Verfügung gestellt. Dem Dozenten mit seiner ruhigen konzentrierten Art und guten Erklärungen hörte man gerne zu; nützlich waren auch die stets angebotenen Untertitel.

Foto Blender-Beispiele

Sehr gerne nutze ich mein Blog für etwaiges späteres Nachschlagen, daher hier einige Stichworte zu wichtigen Tastenkombinationen:

Elementar:
* Maus muss sich über Fensterteil „3D View“ befinden, damit Tastenkombinationen funktionieren
* Auswahl über rechte Maustaste (mehrere mit Shift), Bestätigen mit linker Maustaste
* Rückgängig: Strg+Z

Front-/Back-Ansicht: 1/Strg+1
Top-/Bottom-Ansicht: 7/Strg+7
Rechte Seite/Linke Seite Ansicht: 3/Strg+3
Ansicht Ortho/Perspektive: 5
Quad View: Strg+Alt+Q
Orbit 3D View: Hold Scroll Button+Move
Pan 3D-View: Shift+ Hold Scroll Button+Move
Rendering: F12, dann F3
Kameraansicht: 0, Strg+Alt+0

Wechsel Object Mode und Edit Mode: Tab
Wireframe Mode: Z
Auswählen von Objekten (gelbe Umrandung): rechte Maustaste
Abbrechen von Aktionen: ESC, ggf. Strg+Z
Cursor zuück zu Center of grid, Back to origin: Shift + C
Hinzufügen von Objekten: Shift+A (günstig: vorher Shift+C)
Objekt löschen: X

Grab: G+Z für Verschieben entlang Z-Achse / G+Shift+Z für Verschieben entlang X- und Y-Achse
Rotate: R+Y+45 z.B für Drehen um Y-Achse um 45 Grad
Scale: S+0.3 z.B. für Objektgröße auf X=0.3, Y=0.3, Z=0.3 setzen / S+Z+0.3 für das Verkleinern der Objekthöhe (Z) auf 0.3

Ganzes Modell auswählen (alle vertices, edges, faces): A
Edit Mode, wahlweises Auswählen zum Verändern der Form: Strg+Tab / Vertex oder Edge oder Face / Rechtsklick (ggf. Shift) / weiterer Befehl / Linksklick
Edit Mode, Extrude: E (nach Auswählen einer o. mehrerer der Variante vertices, edges, faces) – Vorteil im Ggs. zu Scale: neue Loop Cuts entstehen
Edit Mode, Loop Cut: Strg+R / Linksklick / Verschieben / Linksklick
Kopieren von Objekten aus einem Blender-File in ein anderes: Strg+C

Subdivision Surface Modifier: Werkzeugsymbol / Add modifier / Generate / Subdivision Surface (anschließend Apply in Object Mode) – Falls dabei schwarze Rillen auftreten: im Edit Mode „A“ für Auswählen aller Vertices, dann Strg+N – Anschließend Edge Loops hinzufügen

Object Mode, Smooth feature: Transform / Smooth (Rückgängig mit Flat)

Array modifier: Werkzeugsymbol / Add modifier / Generate / Array / Fixed Count = … / Constant Offset etc. – Wichtig: Objekt nicht vorher in Object Mode skalieren!
Tip: Add / Empty / Plain Axes und dem Objekt über „Object Offset“ zuordnen, dann die Transformationen (Rotate o.ä.) am Empty machen

2 verschiedene Farben zuordnen: 2. Material anlegen, dann im Edit Mode die 2. Farbe den gewünschten Faces zuordnen, Bestätigen mit Assign

Texture zuweisen: vorher Material zuweisen, Anlegen über New/Open/..jpg – Ergebnis erst beim Rendern sichtbar

Background Image verwenden als Vorlage: +-Zeichen rechts oben in 3D View anklicken / Background Image anhaken / 1 für Frontansicht, 5 für Ortho / Größe anpassen (Hilfreich: http://blender.freemovies.co.uk/modelling-making-a-chess-set/)

Erst Cardboard und Samsung Gear VR, nun Oculus Go

3 VR-Brillen

Eine logische Erweiterung meiner VR-Tests mit Smartphone (also relativ bezahlbare niederschwellige VR) ist die im Juni 2018 in Deutschland auf den Markt gekommene Oculus Go. Dieses VR-Headset benötigt kein Smartphone (hat einen vergleichbaren Chip integriert, braucht also auch keinen PC) und greift auf die Apps des Oculus Stores zu (https://www.oculus.com/experiences/go/ – weitgehend analog der Samsung Gear VR). Wie bei Smartphone-VR gibt es „nur“ 3DoF, also kein Positional Tracking. Im Lieferumfang enthalten ist ein Hand-Controller, der zum Steuern der Menus und Anwendungen benutzt/benötigt wird. Für das Einrichten der Oculus Go ist allerdings wiederum eine Smartphone-App und ein Facebook-Account oder Oculus-Account nötig. Der Betrieb der Oculus Go erfolgt dann entweder mit W-LAN (keine „Captive Portals“ möglich, bei denen man sich anmelden müsste) oder – nach Download von Inhalten – teils auch offline.

Test einiger kostenloser Oculus Go Apps
Das App-Angebot im Rahmen des Einrichtens enthielt „Dead and Buried“ , was ich schon von der Samsung Gear VR her kannte, mich dennoch wieder überrascht hat bzgl. des hohen Grades an Immersion (vielleicht auch weil der Oculus Go Hand-Controller so gut funktioniert). Ebenfalls sehr immersiv ist die „Epic Roller Coaster“ App, bei der ich allerdings zum allerersten Mal im Rahmen meiner VR-Tests so etwas wie Motion Sickness verspürte – insofern war hier der Spaßfaktor gering. „Guided Meditation VR“ (https://www.oculus.com/experiences/app/929143807179080/) wäre eine schöne Idee, konnte mich aber aufgrund der Optik noch nicht überzeugen, da schaue ich mir lieber die reale Welt an – vielleicht wäre sie aber für den Winter geeignet…?

Aufgrund der immer noch zu geringen Auflösung der Brillen wirken Real World 360-Grad-Filme und 360-Grad-Bilder auch bei der Oculus Go gerastert (Fliegengittereffekt) bzw. Videos ohne Download noch dazu oft ruckelig / verschwommen. Bei „Invasion“ , dem extra für VR erstellten Animationsfilm, ist das eher kein Thema – dieser gefällt mir auch auf der Oculus Go sehr gut (Download über Within App). Interessante Anwendungen innerhalb der Within-Player-App waren für mich „The People’s House – inside the White House with Barack and Michelle Obama“ (läuft 22 min) und das künstlerisch gestaltete „Within Original“ Musikvideo „Hallelujah“ (remastered from 6DoF to Mobile VR – daher leider ohne räumliche Bewegung, die durch die Lichtfeldkamera sonst möglich wäre). Die App „International Space Station Tour“ (https://www.oculus.com/experiences/app/1055629531142378/) bietet großen Detailreichtum und ist für am Thema Interessierte sicherlich eine Bereicherung.
Medizin-Apps gibt es offensichtlich schon jede Menge, ein kostenloses Beispiel ist der Ausschnitt „Skeletal system“ aus der „Human Anatomy VR“ (https://www.oculus.com/experiences/app/1658650407494367/). Dort kann man mittels verschiedener Funktionen sein Wissen testen bzgl. der Benennung von Knochen des menschlichen Körpers. Von der 360-Grad-Umgebung macht diese App anderen Gebrauch als die App „Body VR“ (= Travel through the bloodstream)(https://www.oculus.com/experiences/app/869485659814410/).

Eigene 360 Grad Bilder
Bei Google Cardboard und Samsung Gear VR nutzt man ja das Smartphone und hat somit direkten Zugriff auf die dortigen 360-Grad-Bilder, bei der Oculus Go braucht man das mitgelieferte USB-Kabel: Per Anschluss an einen Windows-PC ließen sich (kurz Oculus aufsetzen und Datenzugriff erlauben) meine mit der Kamera „Samsung Gear 360“ erstellten 360-Grad-Bilder im Windows Explorer auf die Oculus Go (Ordner Pictures) kopieren. Die meisten wurden sofort als 360 Grad erkannt und gekennzeichnet, einige „leisteten aber etwas Widerstand“ und ich musste das Format selbst setzen.
Innerhalb der Anwendungen der Oculus Go erstellte Screenshots kann man übrigens bei Datenzugriff aus dem Verzeichnis oculus/Screenshots auf seinen PC kopieren.

Neuer Webbrowser in VR
Getestet habe ich auch „Firefox Reality“ , die gerade erst erschienene  Version 1.0 von Mozillas Browser für VR-Headsets: Mit Hand-Controller war das Eingeben von URLs kein Problem, die Spracheingabe war etwas gewöhnungsbedürftig: heise.de musste ich buchstabieren, die Tagesschau hingegen wurde sofort erkannt. Erstaunlich gut ist die Optik, denn normalerweise vertragen sich VR-Brillen und Text (auf Webseiten ein Kernelement) nicht besonders gut. Das Konzept, die dargestellte Webseite in verschiedenen Formaten anzuzeigen (Vergrößerung 0.5, 1.0. 2.0 etc. zusätzlich zum Vergrößern des Browser-Fensters mittels Hand-Controller) funktionierte gut. Die 100-Sekunden-Tagesschau war mit Oculus Go in guter Bild- und Tonqualität, was ich so nicht erwartet hätte. Dennoch würde ich mir keine längere Suche antun, was aber weniger mit Firefox Reality als mit der – wie ich finde – sehr unbequem zu tragenden Oculus Go zusammenhängt.
Entdeckt habe ich durch die Startseite von „Firefox Reality“ das Format „PanoMoments“: weder Foto noch Video, eher VR time Loop, und muss man tatsächlich mal gesehen haben, um es zu verstehen…
Einen Bericht zu Firefox Reality liefert heise: https://www.heise.de/newsticker/meldung/VR-Browser-Mozilla-veroeffentlicht-Firefox-Reality-1-0-4167174.html

Oculus Go ScreenshotsScreenshots aus Firefox Reality, Oculus Gallery, Body VR, Human Anatomy VR, ISS Tour

Mein Fazit im Vergleich mit Cardboard und Samsung Gear VR

Das Headset Oculus Go liefert die beste Bild-, Ton- und Navigations-Qualität – ist aber leider sehr unbequem und hat bei Betrieb bei mir immer noch einen chemischen Geruch. Die Version mit 32GB kostet 219 Euro und ist damit deutlich günstiger als die High-End-VR-Brillen Oculus Rift und htc Vive, die zusätzlich einen starken PC benötigen.

Einige Vorteile

  • einfache Installation
  • alles integriert, kein Zusammenbauen nötig vor Benutzen
  • gute Bildqualität
  • integrierter guter Ton, der auch Raumklang bietet
  • sehr gut funktionierender Hand-Controller
  • App-Paket mit kostenlosen Apps gleich beim Einrichten angeboten
  • alleinige Funktion als VR-Brille, daher keine störenden Smartphone-Features

Einige Nachteile

  • sehr schwer (im Vergleich  zu Cardboard und Samsung Gear VR)
  • kein Drehregler wie bei Samsung zum Scharfstellen, daher Scharfstellen über Verschieben der Position der Brille auf den Wangenknochen, was für unbequeme Haltung sorgt
  • unangenehmer Geruch

Making of … IDs VR App

Making of – A Virtual Reality App on Android for Google Cardboard with Unity 3D

Motivation
I’ve been interested in Mobile VR (that means low-cost VR without an expensive VR headset and without a high-end gaming PC) for some time. Last year, I took the UC San Diego edX course “How Virtual Reality works” and learned a lot in theory and by testing and reflecting about Google Cardboard apps during the weekly assignments. I thought, it would be absolutely fascinating to create something that really works on my Android smartphone and relates to the aspects we got into in theory last year, so I also took this years edX course “Creating Virtual Reality (VR) Apps” (CSE190x). I wanted to see how difficult it is and if it can be done without massive programming skills.

The result
Logo IDs VR AppThanks to the edX UC San Diego course “Creating Virtual Reality (VR) Apps” there is an app, which actually works … This is Build 1.16 (March 22nd, 2018). With Google Cardboard, you don’t have (hand) controllers and therefore interaction happens by gaze and one button. Nevertheless, I’m quite impressed what can be done.
If you actually want to create an app, I warmly recommend this 6-week-course which is part three of a “Professional Certificate Program”.

If you would like to try IDs VR App on your Android Smartphone at your own risk, here is the download link: https://www.idethloff.de/IDsVRapp/Build16_test.apk

How it began
You need a current Android smartphone, a Google Cardboard and a PC on which runs Unity 3D (https://unity3d.com/de) – there is a personal free edition “For beginners, students and hobbyists who want to explore and get started with Unity.” Btw, Unity 3D is one of three well-known VR authoring tools, the other ones are Lumberyard and Unreal Engine.
In order to test at any one time what you’ve created in Unity 3D, you need to connect the smartphone with the PC and allow some configuration options as “developer”.
It was a little bit tricky to install and configure the necessary Unity 3D environment and its many components: GoogleVRForUnity, Android SDK and JDK. Installing Android SDK (now via „Android Studio“ and afterwards the SDK component) was awful because it took a long long time and when I tried „Build and Run“ in Unity, I just got the error message „CommandInvokationFailure: Unable to list target platforms“ – Using the older version of JDK didn’t help either – at least until I deinstalled the Java 9 SDK. „Build and Run“ then led to numerous other error messages during which I had to change the player settings in Unity (Minimal API level, Package name) and had to change settings on my smartphone which I had to connect via USB during the process (enabling developer options). It was a very nice moment, when I saw the Unity icon in the Cardboard app on my smartphone and could see what I had created in Unity (which was just a room with four walls and a red point light)!

This animated gif shows the difference between week 1 (kind of „Hello World“-moment) and week 6 (finished Test-App):

Animated Gif showing the difference between week 1 and week 6

Week 1 – Game Objects, Camera and Lighting
Game Objects / Scenery: You want to have some content in your app and there are a few possibilities for obtaining/placing 3D models: You can create them directly in Unity 3D or you can fetch them from the Unity Asset Store (there are many free ones) or you can import them, after you’ve created them in another application (e.g. 3D modeling tool). You have to think about reducing the complexity of the objects (polygons in the objects and pixels in the textures) so that the smartphone can keep up with its rendering power (which is much lower than that of a gaming PC). My app became bigger in size each week and the first thing, which blew up its size was a real-world-object which I scanned with the iPad TRNIO app (result shown on TRNIO web page) and afterwards converted in order to get a format which worked in Unity. Luckily, there is a statistics option in Unity, where you can see in Play Mode if you still get the recommended rate of at least 60fps.
This animated gif shows a picture of the original and of the 3D scan result of my hippo (in the app you can walk around it):
Animated Gif showing photo of hipp in real world and hippo as 3D scan

Lighting: You’ve got 4 light types in Unity: Ambient Light, Directional Light, Point Light, Spot Light – all these are things which you can do in Unity directly via the menus and it’s quite easy to add light sources like spotlight or point light and change color, range, intensity.
Camera: Depending on what’s in your VR world, when you want motion on your screen, you can either move the Unity virtual camera or move the world.

Week 2 – Gaze interaction
Actually, it isn’t gaze interaction, but sensors in the smartphone detect the movement of the head and act accordingly. Triggering an action with the “gaze cursor” (which was drawn in the center of the user’s view) can either be done by button on the headset (we did that in our app) or by the “stare and wait” method (which would be installed as a circle which fills out within a few seconds if you hold the gaze).
That was the moment when our scripting started: During the course we wrote 9 C#-scripts from scratch. I would have been totally lost, if there hadn’t been two enthusiastic course assistants who had pre-recorded a lot of video tutorials and showed step-by-step what had to be done.

Week 3/4/5/6 – UI and locomotion, selection and manipulation of objects, wayfinding, textures, spatial audio
Week 3/4/5/6 were a lot about menus in 3D, moving in 3D and how to avoid motion sickness (because in VR, “what you see is not what you get”). Our menu was installed as a UI with buttons, which were combined with scripts in order to make something happen. This meant: Making objects gazeable/transformable, instantiating prefab game objects like furniture by looking at the floor and moving around in the 3D world. Locomotion was technically realized as teleporting (e.g. moving from one spot in the 3D world to another spot instantly – a little bit of magic) and as walking. As we had constructed a room with 4 walls, the walking had to be limited by script but it was a nice touch to allow a view through the walls (That’s why the skybox-feature with a 360 photo made sense). Teleportation avoids motion sickness but can also be a bit disorienting. Therefore, later on, we added a minimap of our room by adding an additional camera with projecting its view as texture on a second UI. It’s quite interesting to see the minimap updating automatically when objects are added or the user (which is represented as a sphere) moves through the room. It was important to make the minimap UI and the other UI user-centered and draggable in order to keep them useful when moving around in the room. For the implementation of these features we needed a lot of new scripts … In comparison, it was very easy to decorate a little bit by giving new textures to the game objects – it was nice to use own photos, import them into Unity and just drop them onto the chosen objects in the scene view – however, what I did wasn’t ideal because the size of the app increased a lot … It was also very relaxing to add spatial audio (e.g. a radio game object and a sound file combined with some configurations in Unity) in order to get more realism: You need a headset with your smartphone to identify if the sound comes from the left or right, but it’s very impressive. We also covered the topic “pitfalls to avoid” (among them “creating a VR app that doesn’t actually require VR”, “making (wrong) assumptions about users” or technical problems like “visual lag”) and the necessity of usability testing (test for functionality & test for comfort) as well as user training. One way of user training would be a demo video and I opted for a screen recording while using the cardboard instead of recording during the Game View Play mode in Unity on my PC.

This picture shows my project in the Unity 3D interface:
Unity 3D Oberfläche
A lot of testing happened in Unity itself with the mouse moving around for simulating head movement:

My conclusion
Yes, it was possible to create a VR app which is working (mostly, there are some bugs), but I couldn’t have done it without the before-mentioned video tutorials of CSE190x. It was fun, it was hard work and I appreciate the work of the MOOC team of Prof. Schulze, UC San Diego. The course was very good in discussing and showing step-by-step the realization of important concepts in Mobile VR.
(My verified CSE190x course certificate)
Creating a specific VR app just isn’t possible without programming skills although Unity 3D already does a lot of good work. However, in my opinion, it would be difficult to implement new things just by searching in Unity 3D web pages or forum entries – at least, this is where I failed, when I looked around a little bit for additional features.

Didactical implications for Mobile VR
It would be “comparatively easy” to implement a scenery where students could explore their surroundings and experience a (hopefully immersive) 3D world. However, you would have to create convincing 3D models of the chosen topic and implement interactions so it doesn’t get boring. I am still surprised/impressed what you can do just with gaze interaction: adding prefab objects and transforming them offers a wide range of possibilities and not just a kind of “interior design app”. Gaze interaction isn’t as intuitive as hand controllers would be, but it can be learned fast (even without the help of a demo video or a tutorial). Good to know: Using text in 3D isn’t a good idea, because you can’t really read it, e.g. you have to do without it and maybe instead use sound for information/instructional purposes. Unfortunately, I’ve seen many VR apps where you have a considerable lag and see pixels – there’s no benefit in those apps, where either the loading via Internet or just the smartphone are too slow. It will be interesting to see the progress in technical development – maybe creating VR apps someday will be as easy as creating a homepage – who still remembers writing html code? Most teachers are lost, when I tell them about the “switch to html”-icon in the Moodle text editor.
And who could write and understand C# scripts which are necessary for creating VR apps with Unity 3D? Therefore, creating VR apps which exceed showing a 3D world fitted with very simple objects and where you can move around a little bit, at present, will become very expensive in production. And still, you couldn’t compete with the perfect graphics & range of interactions in games on Sony PS4 etc. … Last but not least: “Don’t create a VR app that doesn’t actually require VR”.
Nevertheless, I’d recommend that you look at some existing VR apps and be impressed and enjoy the journey. It’s an intriguing experience, especially if you see it for the first time.

 

3D Scan per iPad?

Meine Frage/Idee anlässlich meiner Unity 3D-Aktivitäten war, ob es eine einfache Möglichkeit zum 3D Scan per iOS-App gibt: Fündig geworden bin ich hinsichtlich der kostenpflichtigen iPhone-App Trnio (1,09 Euro), die von der Seite https://3dscanexpert.com/3-free-3d-scanning-apps/ empfohlen wurde.

Es war nicht ganz einfach, mit dem iPad mein gewünschtes Objekt, d.h. ein kleines Stofftier-Nilpferd, zu umkreisen. Das Objekt zu drehen und dabei aus der gleichen Position Fotos zu machen, war leider technisch nicht vorgesehen. Nach einigen Versuchen kam ein Ergebnis zustande, mit dem ich recht zufrieden bin und das gerade wegen der Fehler, u.a. bei der Unterlage, etwas künstlerisch wirkt… Das Ganze konnte ohne vorherige Anmeldung bei Trnio erfolgen; die Bilder sind allerdings automatisch auf den dortigen Server geladen worden, wo auch das Modell aus den Einzelbildern errechnet wurde. Das dauerte einige Zeit und daher habe ich auf Nachbearbeitung verzichtet. Bzgl. Exportieren habe ich aus der App heraus die High-Resolution-Variante gewählt und das Format PLY; den temporären Download-Link konnte man sich zumailen lassen. Automatisch gab es auch einen Link zur öffentlichen Webseite mit meinem 3D-Scan: http://trn.io/2/2G70hcJJJU/

Die Weiterverwendung des 3D Scans in Unity 3D erforderte einen Konvertierungs-Zwischenschritt, und zwar über MeshLab, weil in Unity 3D das Format *.ply nicht verwendet werden kann. Am vielversprechendsten erschien mir hierbei das Format Collada (*.dae) mit nachträglicher Integrierung der jpg-Texture-Datei.