Ausprobiert: ChatGPT

ChatGPT wurde von OpenAI Ende November 2022 als Research Realease für die Öffentlichkeit freigegeben zwecks weiterer Forschung und zum Erhalt von Feedback. Seitdem wird in Fachcommunities und Medien mehr oder minder aufgeregt diskutiert: Was bedeutet ChatGPT für Universitäten und Bildung?

Einige Daten zu ChatGPT

  • Wer steckt dahinter? https://openai.com/about/
  • Was ist das Ziel von ChatGPT? ChatGPT ist ein großes Sprachmodell, das von OpenAI trainiert wurde, um Text in verschiedenen Sprachen zu verstehen und zu generieren.
  • Was heißt GPT eigentlich? Generative Pre-trained Transformer
  • Wie erfolgt der Zugang? Webseite, https://chat.openai.com/
    Nicht zu verwechseln mit diversen Produktivität-Smartphone-Apps mit teils ausgesprochen ähnlichen Icons, In-App-Käufen und Versprechen wie „Write a paper in seconds“
  • Login? Mit Google Account, Microsoft Account oder kostenlos anlegbarem OpenAI-Account (Name, Mail, Mobilnummer)
  • Hinweise beim Zugang? „This is a free research preview. Our goal is to get external feedback in order to improve our systems and make them safer. While we have safeguards in place, the system may occasionally generate incorrect or misleading information and produce offensive or biased content. It is not intended to give advice.“
  • Kosten? „During the research preview, usage of ChatGPT is free.“

Einige Empfehlungen aus der Education-Community

Statt mehr Kontrolle (sowieso kaum möglich) und Verhindern des Einsatzes von ChatGPT wurde in der Community z. B. Folgendes empfohlen:

  • Lernprozesse beurteilen, nicht das finale Produkt
  • Auf kleinere Gruppen mit viel Diskussion setzen
  • Mehr mündliche Prüfungen einbauen
  • KI offiziell erlauben mit Quellenangabe und sinnvoll in die LV integrieren
  • KI-erzeugte Texte manuell verbessern bzw. inhaltlich korrigieren lassen
  • KI als Lerninhalt

Wikipedia schreibt zu ChatGPT „ChatGPT was launched in November 2022 and has garnered attention for its detailed responses and articulate answers, although its factual accuracy has been criticized.“ Letzteres kann ich bestätigen, zudem man keine Chance hat, die Quellen für die Antworten von ChatGPT nachzuvollziehen! Auf „Nachfrage“ erfährt man dann eventuell, dass etwas „not intended to be taken as a fact“ ist oder  ein „fictional example“ war (!) Wer sich für ein Beispiel für von ChatGPT erzeugte nicht korrekte Fakten interessiert, s.u. Abschnitt zu meiner Suchanfrage zur RPTU.

Eigene Tests von ChatGPT

Für mich ist der große Unterschied zu vorigen Entwicklungen, dass das KI-Tool ChatGPT kostenlos für jedermann niederschwellig über eine Webseite zugänglich und nutzbar ist.
Die vorigen KI-Entwicklungen, die auf Tagungen teils schon diskutiert wurden, waren eher nicht nachvollziehbar oder gar zum persönlichen Ausprobieren. Das erklärt auch gewissermaßen den aktuellen Hype um ChatGPT.
KI ist seit Jahren zwar irgendwie ein Thema in Deutschland, aber wer hat schon verstanden, was es wirklich bedeutet und welche Dinge damit konkret möglich werden, zumal der Algorithmen-Aspekt für die meisten eine abschreckende Barriere bedeuten dürfte… Einen frühen sehr guten Beitrag zur Verbreitung von Wissen bzgl. KI leisteten die Finnen seit 2018 mit ihrem sehr bekannt gewordenen Kurs „Elements of AI“.
Und mit ChatGPT steht nun die Webseite https://chat.openai.com zur Verfügung, die nach Login z. B. per Google-Account mit dem dahinterliegenden „Transformer Language Model“ Erstaunliches leistet, um dank KI menschenähnliche Konversationen in Textform zu erzeugen:
In der Benutzeroberfläche, die einer Messaging App ähnelt, einfach eine Frage stellen, einen Befehl eingeben oder einen Chat mit GPT beginnen. Am Besten auf Englisch (geht aber auch auf Deutsch). Die Formulierung der eigenen Eingabe hat natürlich Auswirkungen auf das Ergebnis. So können umfangreiche Texte erzeugt werden (das ist der Aspekt, der derzeit Universitäten aufschreckt – Zitat „game changer“ bzgl. Prüfungen&Assessment), Programmcode geschrieben, Sachverhalte einfach erklärt werden, Gedichte erstellt, Multiple Choice Fragen kreiert werden etc.

Funktionierende Beispiele

Hinweis: Aus Platzgründen habe ich im Folgenden die Ergebnisse meiner 5 dargestellten Beispiel-Konversationen mit ChatGPT nur verlinkt zu einem jeweiligen Screenshot!

Nach ca. 9 Sekunden hatte ich stets eine Reaktion, die einem schnellen Tippen eines Gegenübers ähnelte und dabei sprachlich nicht mehr als Computer identifizierbar war. Wenn nicht das System wegen Überlastung mit „Request timed out“ oder „Too many requests, please slow down“ reagierte oder gar mit Absturz.

Vergleichweise „einfache“ Anfragen, da es im Netz dazu genug Trainings-Material gab, wurden fachlich recht überzeugend beantwortet und würden manche persönliche (Kurz-)Beratung ersetzen können:

  • Bsp. 1: Why should I go to a lecture at a university if I am a student? (Link zum Screenshot)
  • Bsp. 2: What is your recommendation for an interactive live seminar with some students at university and some students at home? (Link zum Screenshot)
  • Bsp. 3: How should a learning management course look like in order to be motivating for students? (Link zum Screenshot)

Auch bei der Aufforderung, MCs zu erzeugen, kamen auf den ersten Blick gute Ergebnisse – per anschließendem Klick auf „Try again“ in leicht abgewandelter Form:

  • Bsp. 4: Generate an easy multiple choice question relating to the topic sports and AI with 4 wrong answers and 1 correct answer. (Link zum Screenshot)

 

Und nun ein problematisches Beispiel zur Suchanfrage „RPTU“

Schwieriger wurde es für ChatGPT, als ich Fragen zu der am 1.1.23 neu an den Start gehenden RPTU (Link zur Webseite der RPTU) stellte und damit auf das Grundproblem von ChatGPT stieß, u.U. sprachlich überzeugend falsche Fakten zu produzieren. Ja, die GPT-Datenbasis ist von 2021 und die RPTU-Entwicklungen bzgl. Namen etc. tatsächlich neue(re)n Datums, aber dennoch… Der Beginn war zunächst noch überzeugend:

  • Bsp. 5: Which 5 aspects do I need to know about RPTU?

[ChatGPT]: „It is difficult to provide a response without more context about what „RPTU“ stands for and what topic or field it pertains to. Could you please provide more information about the topic or context in which you are interested in learning about RPTU?“
Nachdem ich ergänzte per ‚RPTU is „Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau“‚ wurde es interessant und sehr schnell erhielt ich eine halbe Seite Text, darunter falsche Daten zur Gründung und zu den Partnern. Darauf angesprochen Would you like to correct your first answer as RPTU was not founded in 1970?antwortete ChatGPT sehr höflich „Thank you for bringing this to my attention. I apologize for any confusion I may have caused. I was unable to find any information about the founding date of Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau (RPTU). I recommend verifying the founding date of RPTU with a reliable source.“ Meine erneute Nachfrage „why did you choose 1970 as founding date of RPTU?“ blieb unbeantwortet wegen „Request timed out“ und „Too many requests, please slow down.“ Damit war mein gestriger Test dann auch beendet.

Leider konnte ich heute nicht direkt fortsetzen, denn auf die gleiche Frage Which 5 aspects do I need to know about RPTU?“ war ChatGPT heute Mittag sofort der Meinung „RPTU stands for Remote Power Transmission Unit, which is a device used to transmit electrical power over long distances using high-voltage transmission lines….“
Das konnte ich so nicht stehenlassen und erkundigte mich „When I asked you yesterday, why did you choose 1970 as founding date of RPTU?“ Die höfliche Antwort von ChatGPT: „I apologize, but I am unable to recall previous conversations or information that you have provided. In order to accurately answer your question, it would be helpful if you could provide more context or specify which information you are referring to.“
Der Aufforderung kam ich gerne nach:
[ID]: „You said: Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau (RPTU) is a technical university located in Kaiserslautern and Landau, Germany. Here are five things you might want to know about RPTU: 1. History: RPTU was founded in 1970 as a merger of the Technical University of Kaiserslautern and the University of Applied Sciences in Landau.“
[ChatGPT]: „I apologize for the confusion. The information I provided about the Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau (RPTU) was not intended to be taken as fact. RPTU is not a real university, and I provided the information as a fictional example to illustrate the types of information that might be relevant to know about a technical university.“
Für mich eine interessante „War ja alles nicht so gemeint“-Reaktion von ChatGPT – das Training von ChatGPT erfolgte ja auch auf Basis von menschlichen Konversationen – und dazu kann ich nur sagen: Ein Riesenthema wird sein, erzeugte Texte/Antworten von ChatGPT überhaupt auf deren Korrektheit zu beurteilen! Das fördert sicherlich auch das genaue Lesen…

Trotz aller Kritik an ChatGPT: Ich war sehr beeindruckt, und jeder sollte unbedingt die Möglichkeit nutzen, dieses derzeit kostenlose Tool einmal selbst auszuprobieren!

***

Ein Gedicht

Jedenfalls war ich nach diesen Tests in der Stimmung, mich aufs komplett Fiktive zu verlegen und ich ließ ChatGPT ein Gedicht über einen Waschbär erstellen, der nach Heidelberg ziehen wollte, aber keine Wohnung fand 🙂

Frohe Weihnachten; alles wird gut!

Waschbaer-Gedicht

Blender 2.8

Es war einmal ein Würfel.
Blender 2.8x (https://www.blender.org/) unterscheidet sich doch ziemlich von 2.79 und meine ersten Versuche mit der neuen Oberfläche ergaben dies hier:

Ergebnis der gerenderten Szene (mit Lichteffekten)

3D-Modell, entstanden aus einem Würfel

Für Interessenten hier die Daten meines 3D-Modells als FBX-Export (48 KB): https://www.idethloff.de/blender/blender28/v1-blau.fbx

Zum weiteren Einarbeiten in Blender 2.8 – so denn Zeit dafür ist – wird sicherlich die Aufzeichnung dieses MMKH-Kurses hilfreich sein: https://www.mmkh.de/schulungen/medienproduktion/detail/2020-06-18-webinar-3d-modeling-mit-blender-28-fuer-einsteigerinnen.html

Erste Tage im Home-Office

Seit Mittwoch, den 18.3.2020 bin ich nun im Home-Office, wofür ich sehr dankbar bin. Die letzten Wochen mit der täglichen S-Bahn-Fahrt zur Arbeit waren doch recht unangenehm – überall hustete und schniefte es und ich habe mich häufig gefragt, ob die Leute wirklich nur Erkältung, Allergie, Raucherhusten o.ä. hatten… Das dienstliche Telefon ist auf AB umgestellt mit Hinweis auf meine E-Learning-Center-Webseite und Mail-Kontakt, was die Anfragen gut kanalisiert. Die bisherigen 3 Arbeitstage im Home-Office waren lang und sehr anstrengend, da die Arbeitslast für alle E-Learning-Experten weltweit eine neue Dimension erreicht hat.

Arbeiten zu Hause am PC ist für mich nichts Neues, oft habe ich ja schon an Wochenenden auch etwas für die Arbeit erledigt. Nun bin ich als E-Learning-Zuständige der Universität aber natürlich in einer ganz anderen Situation und sehr gefragt: Das bedeutete viele Informationen, ständige Aktualisierungen der Lage und dank unseres Rechenzentrums auch viele neue Online-Kommunikationstools zum Ausprobieren. Viele große Firmen machen derzeit ja Angebote für kostenlose Nutzung/Trials und dies behält das Rechenzentrum im Auge. In den letzten Tagen wurde man im Internet von Einzelpersonen, Institutionen oder auch Portalen überschüttet mit Linksammlungen zum digitalen Lernen. Da ist es schier unmöglich, überall einen Blick drauf zu werfen. Ehrlich gesagt, halte ich es auch nicht für zielführend, dass Lehrende jetzt anfangen, fremde Tool-Sammlungen zu sichten oder für sich nutzen zu wollen – das kostet Zeit und ist in einem offiziellen Rahmen wie einer Universität Datenschutzrechtlich bedenklich. Wie gesagt, daher bin ich unserem Rechenzentrum sehr dankbar für die stets aktualisierte Tool-Liste.

Die offenbar sehr gut besuchte Live-Webinar-Veranstaltung am Mittwoch nachmittag bei e-teaching.org (>600 TN) habe ich abends als Aufzeichnung dazwischengeschoben, denn tagsüber ist momentan für so etwas keine Zeit. Viele Diskussionen in der E-Learning-Community drehten sich in dieser Woche um das, was in der aktuellen Situation gefragt ist – Für mich habe ich da mitgenommen: Es muss viel improvisiert werden, einfache Settings sind zu empfehlen, aufgrund der Netzauslastung und daher mangelnder Erreichbarkeit von Live-Systemen ist asynchrone Kommunikation/Kooperation aus jetziger Sicht Mittel der Wahl. Der Gedanke ist zwar naheliegend, Vorlesungen jetzt einfach als Live-Stream anzubieten oder LV als Webinar zu gestalten, aber wenn es dann technisch wegen Überlastung nicht funktioniert, ist der Frust groß und man hat nichts gewonnen. Synchrone Veranstaltungen erzeugen in der jetzigen Situation bei allen Beteiligten Druck, daher wäre das m.E. auch nicht unbedingt etwas für Ungeübte.

Positiv erlebt habe ich diese Woche die Kommunikation mit Lehrenden, die ausschließlich nett und wertschätzend war; da sieht man, dass das Netzwerk funktioniert. Gestern morgen bekam ich eine aufmunternde Mail einer Dozentin aus Japan (dortige Insel noch ohne Virus), die uns dieses Semester unterstützt, indem sie für ihre Heidelberger Lehrveranstaltung mehr selbst übernimmt. Auch die URZ-Kollegen sind super und die Zusammenarbeit mit meinem Büro-Kollegen ist auch aus dem Home-Office hervorragend und wir können uns insbesondere zu Moodle perfekt online austauschen. Sehr hilfreich ist dabei der neue Instant Messenger der Uni, der niederschwellig auch eine Sprachkommunikation rein über Webbrowser zwischen 2 Personen erlaubt. Noch ist dieses Tool neu und nicht allen bekannt – wenn mich alle Lehrenden mit ihren Anfragen irgendwann darüber kontaktieren würden, wird es allerdings eng… Auf jeden Fall wichtig ist es, für sich zu klären/sortieren, mit wem über welche Kommunikationsart in Kontakt geblieben wird: Wann ist eine Mail besser, wann Instant Messenger, wann ein Telefonat (und über welche Nummern, denn wir haben ja Home-Office) und wie schnell sind die Reaktionszeiten – Bei manchen Anfragen muss man die Euphorie zum Online-Lernen auch etwas bremsen, da noch Regelungen ausstehen, die erst in einigen Tagen klarer sind.

Hier noch ein paar Tipps fürs Home-Office: Sehr früh habe ich schon allen geraten, sich eine Webcam und ein Headset zu organisieren. Hinzu kommt natürlich eine vernünftige Internet-Verbindung und ein halbwegs aktueller PC. Mein erster Engpass bestand darin, dass mein Laptop nicht genug USB-Schnittstellen hatte für all die peripheren Geräte und ein älterer USB-Hub daher überbrücken muss bis meine amazon-Lieferung kommt. Zwei Bildschirme sind auch hilfreich, denn es gilt, viele Programme parallel im Blick zu behalten. Eine wichtige Überlegung ist zudem, welche Programme/Informationen man zeitgleich offen haben muss, um schnell handlungsfähig zu sein bei Anfragen und nicht ständig suchen zu müssen. Als hilfreich empfinde ich unsere offizielle HeiBox, sprich den universitären Cloud-Speicherdienst. Und die ganze Geräte-Verkabelung lasse ich jetzt einfach dauerhaft im Arbeitszimmer.

Neben Bearbeiten von Anfragen war diese Woche auch das Entwickeln von weiteren Informationsmaterialien Thema bei mir und v.a. das Selbst-Auf-dem-Laufenden-Halten, einerseits die eigene Uni betreffend und andererseits Bundesland, Deutschland und international. Wertvoll war für mich am Donnerstag unser reguläres Online-Arbeitstreffen der AdobeConnect-DACH-Nutzergruppe Forschung & Lehre, das natürlich diesmal aufgrund aktueller Entwicklungen einen ganz anderen Fokus bekam und zum Expertise-Austausch verschiedenster Hochschulen wurde. Insofern: Allein oder isoliert gefühlt habe ich mich diese Woche bestimmt nicht, denn es ist (wenn die Technik funktioniert) online sehr viel machbar – das ist in der aktuellen Corona-Krise ein Riesen-Vorteil. Und es ist ja nicht so, dass Online-Lernen etwas völlig Neues wäre. Schon 2009 habe ich meinen Online-Masterstudiengang Educational Media der Universität Duisburg-Essen abgeschlossen – dieser setzte schwerpunktmäßig auf asynchrones Lernen, und in Präsenz getroffen haben wir uns nur am jeweiligen Semesterende zu den Prüfungen. Dennoch waren die sozialen Bindungen eng.

Dies als Momentaufnahme persönlicher Eindrücke – abzuwarten bleibt, wie sich alles weiter entwickelt. Bleiben Sie gesund und online.

3D-Modellierung mit Blender

Wer einen guten und kostenlosen Einführungskurs in Blender (= 3D-Modelle erstellen) sucht: Dazu kann ich uneingeschränkt den edX-Kurs „Basic 3D Modeling using Blender“ (IIT Bombay) empfehlen, den ich gerade erfolgreich absolviert habe (Link Zertifikat). Der Arbeitsumfang war auf 4 Wochen mit 4-6 Stunden/Woche angelegt (ich habe mir mehr Zeit gelassen) und gliederte sich in 4 Kapitel:

1 Interface: Oberfläche Blender, Tastenkombinationen, verschiedene Views etc.

2 Transformation: Einfache Objekt-Manipulationen vorhandener Objekte entlang X/Y/Z-Achsen via Grab, Rotate und Scale / Umgang mit der Kamera und Rendering / Object Mode und Edit Mode / Mesh (Vertices, Edges, Faces) mit Grab, Rotate, Scale / Loop Cuts

3 Basic Modeling: Erstellen von einfachen Objekten wie Tisch & Stuhl mittels Extrude, Loop Cuts und Anwenden der Prinzipien aus Kapitel 2 / Benutzen von Subdivision Surface Modifiers & Edge Loops und Smooth Shading / Benutzen von Array Modifiers für sich wiederholende Formen

4 Material, Texture, Light: Farben, Effekte wie Spiegelungen & Transparenz / Texture für ‚Look und FEEL‘ / Lichtquellen mit verschiedenen Konfigurationen (Farben, Energy, Distance, Schatten, Winkel, 3-point-lighting)

Bei derartigen Themen sind aus didaktischer Sicht praktische Übungen besonders wichtig, und die gab es reichlich und gut nachvollziehbar bei steigendem Schwierigkeitsgrad. Insofern wäre der Kurs auch interessant für motivierte Personen ohne Vorkenntnisse. Das in MOOCs übliche Video-Format war für die Thematik ausgesprochen geeignet; dazu wurden die Folien mit den Essentials (zum Nachschlagen) dankenswerterweise auch als PDF zur Verfügung gestellt. Dem Dozenten mit seiner ruhigen konzentrierten Art und guten Erklärungen hörte man gerne zu; nützlich waren auch die stets angebotenen Untertitel.

Foto Blender-Beispiele

Sehr gerne nutze ich mein Blog für etwaiges späteres Nachschlagen, daher hier einige Stichworte zu wichtigen Tastenkombinationen:

Elementar:
* Maus muss sich über Fensterteil „3D View“ befinden, damit Tastenkombinationen funktionieren
* Auswahl über rechte Maustaste (mehrere mit Shift), Bestätigen mit linker Maustaste
* Rückgängig: Strg+Z

Front-/Back-Ansicht: 1/Strg+1
Top-/Bottom-Ansicht: 7/Strg+7
Rechte Seite/Linke Seite Ansicht: 3/Strg+3
Ansicht Ortho/Perspektive: 5
Quad View: Strg+Alt+Q
Orbit 3D View: Hold Scroll Button+Move
Pan 3D-View: Shift+ Hold Scroll Button+Move
Rendering: F12, dann F3
Kameraansicht: 0, Strg+Alt+0

Wechsel Object Mode und Edit Mode: Tab
Wireframe Mode: Z
Auswählen von Objekten (gelbe Umrandung): rechte Maustaste
Abbrechen von Aktionen: ESC, ggf. Strg+Z
Cursor zuück zu Center of grid, Back to origin: Shift + C
Hinzufügen von Objekten: Shift+A (günstig: vorher Shift+C)
Objekt löschen: X

Grab: G+Z für Verschieben entlang Z-Achse / G+Shift+Z für Verschieben entlang X- und Y-Achse
Rotate: R+Y+45 z.B für Drehen um Y-Achse um 45 Grad
Scale: S+0.3 z.B. für Objektgröße auf X=0.3, Y=0.3, Z=0.3 setzen / S+Z+0.3 für das Verkleinern der Objekthöhe (Z) auf 0.3

Ganzes Modell auswählen (alle vertices, edges, faces): A
Edit Mode, wahlweises Auswählen zum Verändern der Form: Strg+Tab / Vertex oder Edge oder Face / Rechtsklick (ggf. Shift) / weiterer Befehl / Linksklick
Edit Mode, Extrude: E (nach Auswählen einer o. mehrerer der Variante vertices, edges, faces) – Vorteil im Ggs. zu Scale: neue Loop Cuts entstehen
Edit Mode, Loop Cut: Strg+R / Linksklick / Verschieben / Linksklick
Kopieren von Objekten aus einem Blender-File in ein anderes: Strg+C

Subdivision Surface Modifier: Werkzeugsymbol / Add modifier / Generate / Subdivision Surface (anschließend Apply in Object Mode) – Falls dabei schwarze Rillen auftreten: im Edit Mode „A“ für Auswählen aller Vertices, dann Strg+N – Anschließend Edge Loops hinzufügen

Object Mode, Smooth feature: Transform / Smooth (Rückgängig mit Flat)

Array modifier: Werkzeugsymbol / Add modifier / Generate / Array / Fixed Count = … / Constant Offset etc. – Wichtig: Objekt nicht vorher in Object Mode skalieren!
Tip: Add / Empty / Plain Axes und dem Objekt über „Object Offset“ zuordnen, dann die Transformationen (Rotate o.ä.) am Empty machen

2 verschiedene Farben zuordnen: 2. Material anlegen, dann im Edit Mode die 2. Farbe den gewünschten Faces zuordnen, Bestätigen mit Assign

Texture zuweisen: vorher Material zuweisen, Anlegen über New/Open/..jpg – Ergebnis erst beim Rendern sichtbar

Background Image verwenden als Vorlage: +-Zeichen rechts oben in 3D View anklicken / Background Image anhaken / 1 für Frontansicht, 5 für Ortho / Größe anpassen (Hilfreich: http://blender.freemovies.co.uk/modelling-making-a-chess-set/)

Erst Cardboard und Samsung Gear VR, nun Oculus Go

3 VR-Brillen

Eine logische Erweiterung meiner VR-Tests mit Smartphone (also relativ bezahlbare niederschwellige VR) ist die im Juni 2018 in Deutschland auf den Markt gekommene Oculus Go. Dieses VR-Headset benötigt kein Smartphone (hat einen vergleichbaren Chip integriert, braucht also auch keinen PC) und greift auf die Apps des Oculus Stores zu (https://www.oculus.com/experiences/go/ – weitgehend analog der Samsung Gear VR). Wie bei Smartphone-VR gibt es „nur“ 3DoF, also kein Positional Tracking. Im Lieferumfang enthalten ist ein Hand-Controller, der zum Steuern der Menus und Anwendungen benutzt/benötigt wird. Für das Einrichten der Oculus Go ist allerdings wiederum eine Smartphone-App und ein Facebook-Account oder Oculus-Account nötig. Der Betrieb der Oculus Go erfolgt dann entweder mit W-LAN (keine „Captive Portals“ möglich, bei denen man sich anmelden müsste) oder – nach Download von Inhalten – teils auch offline.

Test einiger kostenloser Oculus Go Apps
Das App-Angebot im Rahmen des Einrichtens enthielt „Dead and Buried“ , was ich schon von der Samsung Gear VR her kannte, mich dennoch wieder überrascht hat bzgl. des hohen Grades an Immersion (vielleicht auch weil der Oculus Go Hand-Controller so gut funktioniert). Ebenfalls sehr immersiv ist die „Epic Roller Coaster“ App, bei der ich allerdings zum allerersten Mal im Rahmen meiner VR-Tests so etwas wie Motion Sickness verspürte – insofern war hier der Spaßfaktor gering. „Guided Meditation VR“ (https://www.oculus.com/experiences/app/929143807179080/) wäre eine schöne Idee, konnte mich aber aufgrund der Optik noch nicht überzeugen, da schaue ich mir lieber die reale Welt an – vielleicht wäre sie aber für den Winter geeignet…?

Aufgrund der immer noch zu geringen Auflösung der Brillen wirken Real World 360-Grad-Filme und 360-Grad-Bilder auch bei der Oculus Go gerastert (Fliegengittereffekt) bzw. Videos ohne Download noch dazu oft ruckelig / verschwommen. Bei „Invasion“ , dem extra für VR erstellten Animationsfilm, ist das eher kein Thema – dieser gefällt mir auch auf der Oculus Go sehr gut (Download über Within App). Interessante Anwendungen innerhalb der Within-Player-App waren für mich „The People’s House – inside the White House with Barack and Michelle Obama“ (läuft 22 min) und das künstlerisch gestaltete „Within Original“ Musikvideo „Hallelujah“ (remastered from 6DoF to Mobile VR – daher leider ohne räumliche Bewegung, die durch die Lichtfeldkamera sonst möglich wäre). Die App „International Space Station Tour“ (https://www.oculus.com/experiences/app/1055629531142378/) bietet großen Detailreichtum und ist für am Thema Interessierte sicherlich eine Bereicherung.
Medizin-Apps gibt es offensichtlich schon jede Menge, ein kostenloses Beispiel ist der Ausschnitt „Skeletal system“ aus der „Human Anatomy VR“ (https://www.oculus.com/experiences/app/1658650407494367/). Dort kann man mittels verschiedener Funktionen sein Wissen testen bzgl. der Benennung von Knochen des menschlichen Körpers. Von der 360-Grad-Umgebung macht diese App anderen Gebrauch als die App „Body VR“ (= Travel through the bloodstream)(https://www.oculus.com/experiences/app/869485659814410/).

Eigene 360 Grad Bilder
Bei Google Cardboard und Samsung Gear VR nutzt man ja das Smartphone und hat somit direkten Zugriff auf die dortigen 360-Grad-Bilder, bei der Oculus Go braucht man das mitgelieferte USB-Kabel: Per Anschluss an einen Windows-PC ließen sich (kurz Oculus aufsetzen und Datenzugriff erlauben) meine mit der Kamera „Samsung Gear 360“ erstellten 360-Grad-Bilder im Windows Explorer auf die Oculus Go (Ordner Pictures) kopieren. Die meisten wurden sofort als 360 Grad erkannt und gekennzeichnet, einige „leisteten aber etwas Widerstand“ und ich musste das Format selbst setzen.
Innerhalb der Anwendungen der Oculus Go erstellte Screenshots kann man übrigens bei Datenzugriff aus dem Verzeichnis oculus/Screenshots auf seinen PC kopieren.

Neuer Webbrowser in VR
Getestet habe ich auch „Firefox Reality“ , die gerade erst erschienene  Version 1.0 von Mozillas Browser für VR-Headsets: Mit Hand-Controller war das Eingeben von URLs kein Problem, die Spracheingabe war etwas gewöhnungsbedürftig: heise.de musste ich buchstabieren, die Tagesschau hingegen wurde sofort erkannt. Erstaunlich gut ist die Optik, denn normalerweise vertragen sich VR-Brillen und Text (auf Webseiten ein Kernelement) nicht besonders gut. Das Konzept, die dargestellte Webseite in verschiedenen Formaten anzuzeigen (Vergrößerung 0.5, 1.0. 2.0 etc. zusätzlich zum Vergrößern des Browser-Fensters mittels Hand-Controller) funktionierte gut. Die 100-Sekunden-Tagesschau war mit Oculus Go in guter Bild- und Tonqualität, was ich so nicht erwartet hätte. Dennoch würde ich mir keine längere Suche antun, was aber weniger mit Firefox Reality als mit der – wie ich finde – sehr unbequem zu tragenden Oculus Go zusammenhängt.
Entdeckt habe ich durch die Startseite von „Firefox Reality“ das Format „PanoMoments“: weder Foto noch Video, eher VR time Loop, und muss man tatsächlich mal gesehen haben, um es zu verstehen…
Einen Bericht zu Firefox Reality liefert heise: https://www.heise.de/newsticker/meldung/VR-Browser-Mozilla-veroeffentlicht-Firefox-Reality-1-0-4167174.html

Oculus Go ScreenshotsScreenshots aus Firefox Reality, Oculus Gallery, Body VR, Human Anatomy VR, ISS Tour

Mein Fazit im Vergleich mit Cardboard und Samsung Gear VR

Das Headset Oculus Go liefert die beste Bild-, Ton- und Navigations-Qualität – ist aber leider sehr unbequem und hat bei Betrieb bei mir immer noch einen chemischen Geruch. Die Version mit 32GB kostet 219 Euro und ist damit deutlich günstiger als die High-End-VR-Brillen Oculus Rift und htc Vive, die zusätzlich einen starken PC benötigen.

Einige Vorteile

  • einfache Installation
  • alles integriert, kein Zusammenbauen nötig vor Benutzen
  • gute Bildqualität
  • integrierter guter Ton, der auch Raumklang bietet
  • sehr gut funktionierender Hand-Controller
  • App-Paket mit kostenlosen Apps gleich beim Einrichten angeboten
  • alleinige Funktion als VR-Brille, daher keine störenden Smartphone-Features

Einige Nachteile

  • sehr schwer (im Vergleich  zu Cardboard und Samsung Gear VR)
  • kein Drehregler wie bei Samsung zum Scharfstellen, daher Scharfstellen über Verschieben der Position der Brille auf den Wangenknochen, was für unbequeme Haltung sorgt
  • unangenehmer Geruch