Street View 360° panorama shots

One of the tasks in the „How VR works“ MOOC included taking a 360° panorama shot with the Street View Smartphone App. At first I ignored the 360° version and just took a panorama shot by turning myself once around: the photo was quite good and done in seconds, but it wasn’t very immersive because the upper part and lower part were „missing“.
Doing it correctly wasn’t easy as I was standing in the Palatine forest and in the end, the trees consisted of many single pictures which had to fit – otherwise you get ghost trees coming out of nowhere …
This is the best of my attempts which I already uploaded to Google, so it can be found via this short url (https://goo.gl/maps/hxqmta79LLA2) or you click on the full url:

https://www.google.com/maps/@49.4155077,8.1245107,0a,82.2y,80.2h,90t/data=!3m4!1e1!3m2!1sAF1QipN0f86wmY0QEELdJKbx0iR1-62RdoYOiSavywLv!2e10?source=apiv3

 

How VR works

Virtual Reality is a topic which is very interesting for me and I have invested a fair amount of my spare time since last summer in learning more about the subject. Right at this moment, I’m in the middle of a 6-week edX-MOOC from UC San Diego „How Virtual Reality works“.
For sure, it would be nice to get a certificate – but since my last edX MOOC, edX has changed its policy, so that now there are only verified participation certificates for a fee that varies by course (in this case 99 Dollars). In order to get it, there would be many assignments – among them quizzes, engagement tasks (video watching and marking as complete etc.), discussions and project tasks with peer review. The weekly short videos are very informative and don’t cost a lot of time whereas the project tasks did cost me a lot of time and I’m no big fan of peer reviews. I would have preferred forums where I could choose which answers I would like to read and engage with instead of getting 3 submissions with a lot of (formal) questions and points between 0-3.

What’s the content of this MOOC? In the beginning, I thought it was about WebVR, but until now WebVR is in the optional course sections. But there was already a lot of background theory relevant for VR:

  • week 1: Introduction to and History of VR  & The Human Visual System and Display Methods
  • week 2: Input Devices: Degrees of Freedom and Tracking
  • week 3: Selection and Manipulation

Regarding a definition of VR, there are 3 defining elements: Virtual World (can resemble reality or be fictional), Interaction, Immersion. Today, VR is present in many differenct industries, but gaming is still the  dominant driver. I was astonished to hear that the first HMD „Sword of Damocles“ goes back to the 1960s (it was so heavy it had to be attached with a mechanical arm from the ceiling). Until the 1970s tracking was done mechanically with arms anchored in floor or ceiling, 1979 followed the first electromagnetic system (tracking over longer distances and without mechanical arm) from the company Polhemus and the first data gloves came in 1985. In the 1990s, walk-in VR systems (caves) were invented and mostly used electromagnetic or ultrasonic tracking. 2002, optical tracking systems became available (thanks to Hollywood) and the development of smart phones led to their use as screens for consumer VR devices many years later. In 2016, there were HMDs like Oculus Rift CV1 and HTC Vive, Sony Playstation VR and Microsofts Hololens.
The part „Human Visual System“ was a little bit harder to follow: Monocular depth cues like occlusion, linear perspective, shadows, motion parallax and accomodation aren’t a topic you often hear or think about. Regarding human eye specs, there are some parameters of the eye which are important for VR: color and field of view (220 degrees from both eyes, but binocular vision for 3D stereo is just 120 degrees). We also heard about active stereo, passive stereo and autostereos optic displays (wearing glasses not necessary).

Input devices for 3D VR environments are special (you can’t just use a mouse) and you have to think about Degrees of Freedom (DOF), e.g. the ways an object can move within a space. There are 6 DOF in a 3D space which can be divided in 2 categories: translational (left/right, forward/backward, up/down) and rotational (pitch, yaw, roll) movements. You have also to distinguish between position and orientation and know about relative and absolute DOF – absolute positioning devices use a direct mapping between control space and virtual space.
There are different tracking systems for VR: Mechanical tracking (can’t be used for walk-around VR applications), electromagnetic tracking (also with range limitations), ultrasonic & inertial tracking (components gyroscopes and accelerometers), optical tracking (became popular for motion capturing in Hollywood movies). The least expensive way to do VR is with smartphones but that doesn’t allow for positional tracking (only the head orientation is tracked).

The course section „selection and manipulation“ was easier to follow for me because of personal experiences with VR. Selection means the option of picking one of many objects in VR, manipulation means the action afterwards which modifies an object or makes changes to the virtual world. Both depend heavily on the capabilities of the interaction device which is used.
Important for effective selections are: how far away is the object? what size is the object? the density of objects (and are there obstacles) around the object which shall be selected? the accuracy of the tracking device?
Manipulation of VR objects can mean positioning them (moving them around) or rotating them – in the real world we are used to 6 DOF, but few controllers are able to do that.
Selection and manipulation interaction techniques for VR can be isomorphic (mimic the real world) or non-isomorphic („magic“ – not limited to laws of physics but therefore might not be intuitive). There is also the distinction between egocentric (user is at the centre, real hand = virtual hand, Go-Go technique, Laser pointer or Flashlight technique etc.) and exocentric (world in miniature approach, voodoo doll approach etc.) interaction methods. As low-cost VR solutions like smartphone & Cardboard don’t have controllers, selection and manipulation track the user’s head direction – the head gaze typically controls a cursor in the center of the screen and via head movement the cursor can be moved to select a predefined object. Manipulation often is simply done by hovering the cursor over an object for a certain amount of time (2 seconds or so) which then triggers an action. Hand gestures would be the most natural way to interact in VR (devices like Leap Motion or Microsoft Kinect which can detect finger pinches), but there is still the issue of not providing haptic feedback when touching an object.

This covers my impressions of week 1 to week 3; hopefully there are no big mistakes in my notes.

VR-Bookmarks

In den letzten Monaten habe ich mehr oder weniger systematisch Links zu verschiedensten Aspekten von VR gesammelt und diese heute nun endlich mal in die Bookmarkdienste Delicious (aus Gewohnheit, so toll ist der Dienst nicht mehr) und diigo eingestellt. Dabei gibt es viel zu entdecken:
Vom Link zu den bibliographischen Angaben des c’t wissen VR-Spezial-Hefts 2016 bis zum Volltext von Elliott Masies „VR Learn Report“ (1/2017), die mit sehr vielen Beispielen versehene merton-magazin-Kolumne „Virtuelle Realität wird uns klüger, kreativer und empathischer machen“, Zahlen der Bitkom-Befragung zu VR (7/2016), Daten und Fakten zu den bislang über 5 Mio mal verkauften Modellen der VR-Brille „Samsung GearVR“, einzelne empfehlenswerte Apps für GearVR oder Cardboard, 360-Grad-Bilder/-Videos: Infos zu Kameratypen & Beispielen aus Harvard CS50VR und Trinity College, Aufsätze zur Oculus Rift (incl. den lesenswerten begeisterten Bericht von Donald Clark aus 2013 – drei Jahre später ist er übrigens immer noch begeistert und listet auf „10 ways to get started with VR in learning – a primer“), den historischen Abriss zu VR von Audrey Watters, Infos zu VR in Schulen bzw. zum Lernen, Bewerbungen per VR, VR für Trainings, Virtual Reality Arenen in Deutschland (überraschend, was es da schon alles gibt) … und natürlich hat sich auch die Stiftung Warentest schon in einem Bericht (allerdings wenig begeistert) zu VR geäußert.

Weiteres Testen der Samsung GEAR VR

Bereits vor Monaten hatte ich rercherchiert / ausgewählt, welche kostenlosen Anwendungen ich mir auf der Samsung GEAR VR anschauen möchte: Heute bin ich zum Ausprobieren gekommen, auch motiviert durch die LEARNTEC-Vorträge zu VR (die sich allerdings alle auf die teurere und mächtigere HTC VIVE bezogen). Da ich die Samsung GEAR VR einige Monate nicht genutzt hatte, musste ich erstmal durch einen Update-Marathon, wo sich mittlerweile auch Einiges verhakt hatte. D.h. nach dem Aufsetzen erhielt ich nicht die „Oculus Home“ Startseite, sondern wurde aufgefordert, die Gear abzusetzen und die Updates durchzuführen. Letztendlich musste ich die Oculus-App deinstallieren und einige Rechte auf dem Handy, die ich zwischenzeitig gesperrt hatte, wieder freigeben. Nicht selbsterklärend und benutzerfreundlich, aber naja.
Samsung hat sein eigenes App-Universum, d.h. Apps müssen auch dafür aufbereitet und freigegeben sein!
https://www.oculus.com/experiences/gear-vr/

Videos in VR
Die meisten der Apps, die ich testweise heruntergeladen hatte, basierten auf 360 Grad Stereo Videos, so z.B. die „SZ VR“ (Link) der Süddeutschen Zeitung mit Videos im Kontext der Olympischen Spiele in Rio, „WITHIN“ (Link) mit verschiedensten Inhalten und „NEXTVR“ (Link) mit Live-Übertragungen von Veranstaltungen.
Diese Apps benötigen dann logischerweise Internetzugang fürs Streaming. Bei „WITHIN“ hat mir der Film „Click effect“ (James Nestor, ca. 7min) gefallen, in dem es um „Free diving with two marine scientists“ geht und die entsprechende Unterwasserwelt gezeigt wird. Vorteil ist dort m.E., dass man unter Wasser nicht unbedingt ein 1A-Bild erwartet und die Pixel des Handy-Displays, die sonst bei VR oft störend zu sehen sind, sehr in den Hintergrund treten. Ein Beispiel für eine App, in der ich es deutlich länger ausgehalten habe, war die Aufzeichnung der „GAME AWARDS 2016“ über NEXTVR: Die Aufzeichnung wäre 1 Stunde 24 min gewesen, doch ich bin immerhin 40 min dabei geblieben, ehe es dann zu einer Zwangspause kam, weil die Samsung GEAR VR meldete „Die GEAR VR muss abkühlen“. Thematisch sind Games und VR nah beieinander und diese Art der Übertragung in VR war deutlich professioneller gestaltet als einfach eine Veranstaltung in 3D abzufilmen – schon daher lohnte ein Blick in die Aufzeichnung. Auch hier störten die Pixel gar nicht, selbst die Projektion der in den jeweiligen Kategorien nomierten Games auf der Leinwand war angenehm anzuschauen. Geschickte Wechsel der Kameraperspektive und teilweises Ausblenden des Publikums mit überlagerter VR-üblicher Szenerie / Sternen machten das Schauen angenehm und fokussierter. Darüber hinaus lernte man dabei inhaltlich doch Einiges über die aktuelle Gamer-Szene (vgl. Webseite The Game Awards).

Künstliche Welten in VR
Einen anderen Ansatz verfolgen ja Apps, die von vornherein künstliche Welten zu verschiedenen Zwecken generieren, so z.B. die in Unity erstellte „VirtualSpeech“, die einem verschiedene Szenarien anbietet, damit man eigene Vorträge / Vorstellungsgespräche  proben kann. Die Idee ist interessant, aber das Ganze konnte mich nicht überzeugen – der Ablauf bei den Zuschauern ist (bzgl. Nicken, Gesten etc.) zu starr.
Bzgl. Lernen habe ich die App „Labster: CSI Forensic Labs“ (Link) ausprobiert, in der mit vielen nutzerseitigen Interaktionen gearbeitet wird, um die DNA-Analyse einer Blutprobe zu simulieren. Die App ist wirklich einen Besuch wert; darüber hinaus ist die Arbeit mit eingebauten Texten, Hilfen und auch kurzen Videos zum Thema „DNA“ optisch sehr gut umgesetzt.
Was die Optik von künstlichen Welten betrifft, ist auch das Beispiel der „holographic simulations“ innerhalb der „Marvel Avengers: Tony Stark’s Lab“ (Link) recht eindrucksvoll und detailreich umgesetzt.

Soweit für heute, sicherlich gibt es inzwischen schon andere interessante kostenlose „Samsung GEAR VR“-Apps.

Moodle Mobile MOOC – Abschluss

Mittlerweile ist der zweite „Moodle Mobile MOOC“ vom HRDNZ schon seit einigen Tagen beendet und meine Ergebnisse habe ich im dienstlichen Blog unter dem Titel „Moodle-Kursdesign für mobile Nutzung – 10 Hinweise“ kommuniziert:
http://elearning.blog.uni-heidelberg.de/2016/11/25/moodle-kursdesign-fur-mobile-nutzung-%e2%80%93-10-hinweise/

Der Aufbau des MOOCs gefiel mir sehr gut – Die 4 Themenwochen waren in 4 verschiedenen Moodle-Kursen repräsentiert.
Woche 1 = Communication
Woche 2 = Moodle Resources
Woche 3 = Moodle Activities
Woche 4 = Media in Moodle

Der Kurs bot die Möglichkeit, die dort beschriebenen Funktionen durch die vielen Beispiele selbst (mobil) in verschiedenen Varianten auszuprobieren. Meist habe ich mit dem iPad gearbeitet (der Bildschirm ist dann doch angenehmer als das  5,1 Zoll-Display des S6-Smartphones). Schätzen gelernt habe ich dabei tatsächlich die Moodle-App, da trotz allem „Responsive Design“ von Websites der Platz auf den Displays von mobilen Endgeräten begrenzt ist und man daher Inhalte manchmal doch einfach anders aufbereiten muss, damit sie gut nutzbar sind. Daher habe ich nach einiger Überlegung in der kürzlich erfolgten Twitter-Umfrage auch für die Moodle-App gestimmt:
https://twitter.com/ghenrick/status/803291305925341184

Badges
Nebeneffekt des Kurses war, dass ich mich mal wieder mit Badges beschäftigt habe, da der „Moodle Mobile MOOC“ für erfolgreiche Teilnahme einen Badge verliehen hat (Kriterium: mindestens 80% je wöchentlichem Quiz der 4 Wochen).
Meine ersten Badges stammten aus dem Jahr 2013 und wurden von mir im Mozilla Backpack abgelegt:
https://backpack.openbadges.org/share/139b4b45f2754b9e2810297f7f17dbc3/
Leider sind einige inzwischen nicht mehr richtig verifizierbar, weil die Quelle nicht mehr da ist (so z.B. des „Moodle MOOCs on WizIQ“ von 2013).
Da der Persona Login Service laut Webseite zum 30.11.16 enden sollte, habe ich mir vorsichtshalber einen neuen Badges-Service gesucht und bin auf den Dienst „Open Badge Passport“ gestoßen.
Meine Badges bei „Open Badge Passport“:
https://openbadgepassport.com/app/user/profile/14845

Zum Thema Nachhaltigkeit von Badges:

  • Beim Dienst „Mozilla Backpack“ stand heute (also nach dem besagten 30.11.) beim Login der Hinweis „It will be shut down in December 2016“ (daher schnell noch ein PDF der Ansicht generiert).
  • Die besagten „Moodle MOOC on WizIQ“-Badges konnte ich nicht nach „Open Badge Passport“ importieren – Das macht aus Sicht des (für mich neuen) Dienstes ja Sinn, wenn die Badges kaputt sind, aber für mich als Badge-Empfängerin sind damit die alten Credits wohl bald endgültig völlig verschwunden.
  • Mein Badge des MOOCs „Badges: New Currency for Professional Credentials“ (Blackboard Coursesites, 2013) ist ebenfalls nicht mehr verifizierbar, ließ sich aber immerhin noch nach „Open Badge Passport“ importieren.