Medienstadt Hamburg

So lautete der Titel eines Bildungsurlaubes in Hamburg in den 90er Jahren – Damals besuchten wir Redaktionen und diskutierten die Arbeitsweise (Spiegel und Springer, Sat1 und Tagesschau, dpa u.a.). Etliche Jahre später… Mittlerweile haben mediale Umsetzungen längst ihren Einzug in die Museumswelt bzw. digitales Entertainment gefunden, und so stand im Herbst-Kurzurlaub in Hamburg „Panik City“ und „Discovery Dock“ auf meinem Programm. Beide nutzen derzeit angesagte Techniken, darunter Augmented Reality/Mixed Reality, Virtual Reality, Videos incl. 360-Grad-Videos, Riesen-Touchscreens, Projektionen & Simulationen und bieten den Besuchern jede Menge Interaktivität. Faszinierend und beeindruckend waren beide Besuche und zeigen für sehr unterschiedliche Thematiken, was derzeit mit digitaler interaktiver Technologie (und sicherlich viel Geld) alles machbar ist.

Panik City

Panik City als sehr lebendige & schräge Ausstellung („Multimedia-Erlebnis“, Tour ca. 90 Minuten) über Udo Lindenberg bietet inhaltlich in 6 speziell gestalteten Räumen Einblicke ins Atlantic-Hotel, Gronau, DDR-Bezüge, Aufnahmestudio, Likörelle-Malerei und Liveauftritt mit politischem Bezug (aufgenommen übrigens in der SAP-Arena in Mannheim…): https://panikcity.de/

Discovery Dock

Discovery Dock bietet eine Hafen-Erlebnis-Tour (ca. 50 Minuten) mit Informationen zu Docks, Waren & Zoll und Natur. Am beeindruckendsten fand auch ich den Multimedia-Tisch (s.a. YouTube-Video: https://youtu.be/9hFnEs_YVPU), der u.a. die realen Schiffsbewegungen im Hafen im Zeitraffer anzeigt: https://discovery-dock.de/

Und hier einige Fotos aus den wenigen Regenpausen:

HH Foto 01

HH Foto 02

HH Foto 03

HH Foto 04

HH Foto 05

AI – Artificial Intelligence

Das Thema AI ist derzeit recht prominent und einen genaueren Blick wert.

Ausstellungsschiff MS Wissenschaft

Das Wissenschaftsjahr 2019 befasst sich mit Künstlicher Intelligenz, s.a. diese Webseite: https://www.wissenschaftsjahr.de/2019/

Im Rahmen des Themas gibt es verschiedene Angebote, darunter das Frachtschiff MS Wissenschaft, welches kürzlich für einige Tage in Mannheim Station machte. Einen Urlaubstag habe ich u.a. dafür genutzt, mir vormittags im Rahmen einer Führung die dortige Ausstellung „Künstliche Intelligenz“ anzuschauen. Erstaunt war ich über das Publikum mit recht hohem Altersdurchschnitt – das war an den Mitmach-Stationen anders, denn diese waren von Kindern/Jugendlichen umlagert. Trotz des Lärmpegels gab es einen guten Überblick über die wesentlichsten Stichworte: Geschichte AI, Definitionen starke/schwache AI, Mustererkennung und Neuronale Netze, Anwendungsmöglichkeiten und ethische Fragen.
In einem virtuellen Rundgang kann man vorab erfahren, welche (Mitmach-)Stationen es gibt: https://ms-wissenschaft.de/ausstellung/rundgang/ und hier auch noch die Route mit den nächsten Stationen des Schiffs sehen: https://ms-wissenschaft.de/ausstellung/tour-2019/

Kurs „Elements of AI“

Einen tieferen Einblick (schon aufgrund der längeren Beschäftigung mit dem Thema AI) bietet der sehr gute kostenlose finnische Selbstlern-Online-Kurs „Elements of AI“, der auf 6 Kapitel (Wochen) angelegt ist.

https://www.elementsofai.com/

Die Inhalte umfassen: 1 What is AI? / 2 AI problem solving / 3 Real World AI / 4 Machine Learning / 5 Neural Networks / 6 Implications

Anhand von 25 Aufgaben & Übungen, 5 davon in Peer Review, gibt es erhellende und spannende Praxisbeispiele, die man so schnell nicht vergisst (siehe unten).
Kritische Aspekte von AI (wie z.B. algorithmic bias, fraud & real-looking falsehoods, regulations for privacy) können auch innerhalb von Peer Review Freitext-Aufgaben zu „Filter Bubbles“ oder „AI in your work/private life – positive/negative implications“ thematisiert werden.

Einige Stichworte zu den Begrifflichkeiten und Kurs-Aufgaben:

  • Bayes rule: It can be used to weigh conflicting pieces of evidence in medicine, in a court of law, and in many (if not all) scientific disciplines.“ (Quelle: chapter 3/2)
  • The Bayes classifier is a machine learning technique that can be used to classify objects such as text documents into two or more classes. The classifier is trained by analyzing a set of training data, for which the correct classes are given.“ (Quelle: chapter 3/3)
  • Using nearest neighbors to predict user behavior: „The idea is to use the very simple principle that users with similar past behavior tend to have similar future behavior.“ (Quelle: chapter 4/2)

Spannende Anwendungsübungen umfassten u.a.:

  • „Minimax algorithm“ and limited-size game trees anhand von Tic-Tac-Toe
  • Dealing with uncertainty: „Odds and probability“ des Wetters in Helsinki sowie fiktiver Wahrscheinlichkeitsberechnungen einer Krebserkrankung anhand der „Bayes formula“ posterior odds = likelihood ratio × prior odds
  • „Naive Bayes classification“ angewendet auf Beispiel eines Spam-Filters
  • „Nearest Neighbor Classifier“ für recommendations systems auf Basis der Kaufhistorie
  • „Neural Network Classifier“ als classifier für Smiley-Ausdrücke (assigning weights -1 or +1 to input pixels)

Und hier noch der Link zu meinem Kurs-Zertifikat (University of Helsinki & Reaktor): https://certificates.mooc.fi/validate/lqdszv230w

Nächste Stufe „Niederschwellige VR“: Oculus Quest

Dieser Artikel beschreibt meinen ersten Eindruck von der „Oculus Quest“ – vorige VR-Nutzungen fanden per Smartphone (Google Cardboard, Samsung Gear VR) oder Standalone, ohne Gaming-PC (Oculus Go)  statt.

Mein Thema ist ja der niederschwellige Zugang zu VR & AR – Durch die Oculus Quest ist eine nächste beachtliche Stufe für VR erreicht. Mit 449 Euro zwar in etwa doppelt so teuer wie die Oculus Go, machen hier die kabellosen 6 DoF (also nicht nur Orientierungs- sondern auch Positions-Tracking) den wirklich großen Unterschied.

Foto Oculus Quest
Im ausgesprochen gut gemachten Quest-Tutorial  „First Steps“ werden die (im Vergleich zu 3 DoF neuen) Möglichkeiten sichtbar: Das Greifen und Bewegen von Objekten mittels der 2 Hand-Controller und Armbewegungen machen großen Spaß. Dem ganz banalen Papierflieger kann man lange zuschauen, wie er seine Runden dreht und nicht nur der Ball/Tischtennisschläger funktionieren vom Inside-Out-Tracking (Tracking-Algorithmus „Oculus Insight“) her ausgesprochen gut. Beim Starten der Quest wird eine Guardian-Zone definiert, innerhalb derer man seinen Platz definiert, in dem man sich räumlich gut bewegen kann und zum Glück merkt sich die Brille diese Koordinaten, so dass ich am nächsten Tag im gleichen Zimmer (Küche mit Kachelboden und viel Tageslicht) einfach weitermachen konnte.
Die Demo-Version von „BEAT SABER“ ist (im Vergleich zu den generell auf Samsung Gear VR / Oculus GO möglichen Anwendungen) ein Riesenunterschied und wie schon in den Vorab-Kritiken zu lesen war, auf der Oculus Quest eine durchaus sportliche und viel Spaß machende Anwendung und auch vom eingebauten Sound her völlig o.k.
Erstaunlich finde ich, wie viele Leute sich offensichtlich die Quest gekauft haben, obwohl sie schon über die dank Gaming-PC-Anschluss höhere Technik von Oculus Rift / htc Vive verfügen: Klar ist ein kabelloses Vergnügen toll, aber da muss man sich dann auch nicht wundern, dass das Mitschauen (kaum) möglich ist. Was sofort funktioniert, ist die Kopplung von Oculus-App des Smartphones (welches zum Ersteinrichten verwendet wurde) mit der Quest, so dass man immerhin auf dem Smartphone schauen kann, was derjenige, der gerade die Oculus Quest benutzt, sieht. Leider geht das z.B. bei „BEAT SABER“ nicht, aber zumindest das Tutorial „First Steps“, s.u. Foto, kann man ansatzweise als Zuschauer mitverfolgen.

Oculus Quest im Einsatz

Dem ersten Eindruck nach sehr gut und eine erhebliche Qualitätssteigerung zu meinen bisherigen VR-Möglichkeiten ist das Display: meine (per USB-Kabel auf die Quest kopierten) 360-Grad-Bilder sehen ungleich besser aus als auf den bisherigen Oculus Go / Samsung Gear VR. Das kann am OLED-Display mit 72Hz und der Auflösung 1600×1440 pro Auge liegen. Viel besser auch beim Stichwort „Augenabstand einstellen“ – bei der Oculus Go gab es hier keinen Drehregler und die Scharfstellung konnte ich eigentlich nur dadurch regeln, dass ich die Go tiefer nach unten schob, was wiederum extrem unbequem war. Zunächst empfand ich auch die Oculus Quest als unbequem und schwer, aber das gab sich schnell, sobald ich in spannenden Anwendungen unterwegs war.

Die Quest setzt (derzeit) auf Gamer mit entsprechenden Anwendungen, d.h. hier werde ich um diverse Käufe im Bereich von ca. jeweils 20 Euro nicht herumkommen, um weiter zu testen – Ich bin schon sehr gespannt auf „Tilt Brush“ und „Job Simulator“. Was sich bzgl. Quest-Anwendungen künftig im Bereich „Education“ tun wird, muss sich noch zeigen.

3D-Modellierung mit Blender

Wer einen guten und kostenlosen Einführungskurs in Blender (= 3D-Modelle erstellen) sucht: Dazu kann ich uneingeschränkt den edX-Kurs „Basic 3D Modeling using Blender“ (IIT Bombay) empfehlen, den ich gerade erfolgreich absolviert habe (Link Zertifikat). Der Arbeitsumfang war auf 4 Wochen mit 4-6 Stunden/Woche angelegt (ich habe mir mehr Zeit gelassen) und gliederte sich in 4 Kapitel:

1 Interface: Oberfläche Blender, Tastenkombinationen, verschiedene Views etc.

2 Transformation: Einfache Objekt-Manipulationen vorhandener Objekte entlang X/Y/Z-Achsen via Grab, Rotate und Scale / Umgang mit der Kamera und Rendering / Object Mode und Edit Mode / Mesh (Vertices, Edges, Faces) mit Grab, Rotate, Scale / Loop Cuts

3 Basic Modeling: Erstellen von einfachen Objekten wie Tisch & Stuhl mittels Extrude, Loop Cuts und Anwenden der Prinzipien aus Kapitel 2 / Benutzen von Subdivision Surface Modifiers & Edge Loops und Smooth Shading / Benutzen von Array Modifiers für sich wiederholende Formen

4 Material, Texture, Light: Farben, Effekte wie Spiegelungen & Transparenz / Texture für ‚Look und FEEL‘ / Lichtquellen mit verschiedenen Konfigurationen (Farben, Energy, Distance, Schatten, Winkel, 3-point-lighting)

Bei derartigen Themen sind aus didaktischer Sicht praktische Übungen besonders wichtig, und die gab es reichlich und gut nachvollziehbar bei steigendem Schwierigkeitsgrad. Insofern wäre der Kurs auch interessant für motivierte Personen ohne Vorkenntnisse. Das in MOOCs übliche Video-Format war für die Thematik ausgesprochen geeignet; dazu wurden die Folien mit den Essentials (zum Nachschlagen) dankenswerterweise auch als PDF zur Verfügung gestellt. Dem Dozenten mit seiner ruhigen konzentrierten Art und guten Erklärungen hörte man gerne zu; nützlich waren auch die stets angebotenen Untertitel.

Foto Blender-Beispiele

Sehr gerne nutze ich mein Blog für etwaiges späteres Nachschlagen, daher hier einige Stichworte zu wichtigen Tastenkombinationen:

Elementar:
* Maus muss sich über Fensterteil „3D View“ befinden, damit Tastenkombinationen funktionieren
* Auswahl über rechte Maustaste (mehrere mit Shift), Bestätigen mit linker Maustaste
* Rückgängig: Strg+Z

Front-/Back-Ansicht: 1/Strg+1
Top-/Bottom-Ansicht: 7/Strg+7
Rechte Seite/Linke Seite Ansicht: 3/Strg+3
Ansicht Ortho/Perspektive: 5
Quad View: Strg+Alt+Q
Orbit 3D View: Hold Scroll Button+Move
Pan 3D-View: Shift+ Hold Scroll Button+Move
Rendering: F12, dann F3
Kameraansicht: 0, Strg+Alt+0

Wechsel Object Mode und Edit Mode: Tab
Wireframe Mode: Z
Auswählen von Objekten (gelbe Umrandung): rechte Maustaste
Abbrechen von Aktionen: ESC, ggf. Strg+Z
Cursor zuück zu Center of grid, Back to origin: Shift + C
Hinzufügen von Objekten: Shift+A (günstig: vorher Shift+C)
Objekt löschen: X

Grab: G+Z für Verschieben entlang Z-Achse / G+Shift+Z für Verschieben entlang X- und Y-Achse
Rotate: R+Y+45 z.B für Drehen um Y-Achse um 45 Grad
Scale: S+0.3 z.B. für Objektgröße auf X=0.3, Y=0.3, Z=0.3 setzen / S+Z+0.3 für das Verkleinern der Objekthöhe (Z) auf 0.3

Ganzes Modell auswählen (alle vertices, edges, faces): A
Edit Mode, wahlweises Auswählen zum Verändern der Form: Strg+Tab / Vertex oder Edge oder Face / Rechtsklick (ggf. Shift) / weiterer Befehl / Linksklick
Edit Mode, Extrude: E (nach Auswählen einer o. mehrerer der Variante vertices, edges, faces) – Vorteil im Ggs. zu Scale: neue Loop Cuts entstehen
Edit Mode, Loop Cut: Strg+R / Linksklick / Verschieben / Linksklick
Kopieren von Objekten aus einem Blender-File in ein anderes: Strg+C

Subdivision Surface Modifier: Werkzeugsymbol / Add modifier / Generate / Subdivision Surface (anschließend Apply in Object Mode) – Falls dabei schwarze Rillen auftreten: im Edit Mode „A“ für Auswählen aller Vertices, dann Strg+N – Anschließend Edge Loops hinzufügen

Object Mode, Smooth feature: Transform / Smooth (Rückgängig mit Flat)

Array modifier: Werkzeugsymbol / Add modifier / Generate / Array / Fixed Count = … / Constant Offset etc. – Wichtig: Objekt nicht vorher in Object Mode skalieren!
Tip: Add / Empty / Plain Axes und dem Objekt über „Object Offset“ zuordnen, dann die Transformationen (Rotate o.ä.) am Empty machen

2 verschiedene Farben zuordnen: 2. Material anlegen, dann im Edit Mode die 2. Farbe den gewünschten Faces zuordnen, Bestätigen mit Assign

Texture zuweisen: vorher Material zuweisen, Anlegen über New/Open/..jpg – Ergebnis erst beim Rendern sichtbar

Background Image verwenden als Vorlage: +-Zeichen rechts oben in 3D View anklicken / Background Image anhaken / 1 für Frontansicht, 5 für Ortho / Größe anpassen (Hilfreich: http://blender.freemovies.co.uk/modelling-making-a-chess-set/)

Ausprobiert: USDZ-Format für Augmented Reality

Dank ARKit2 ist es möglich, ein 3D-Modell, das in das neue USDZ-Format konvertiert und auf einem Webserver abgelegt wurde, von iOS12-Geräten (mittels Safari) aufzurufen und als AR-Element in die reale Welt einzufügen. Technisch möglich wird dies durch die neue Quick-Look-Funktionalität in iOS12. Dort kann das Objekt dann verschoben bzw. vergrößert oder verkleinert werden, und der Betrachter kann es aus verschiedenen Winkeln anschauen.

Mein Beispiel (Die USDZ-Datei befindet sich auf meinem Webserver.):


usdz-Symbol
Sehen Sie dieses Symbol rechts oben im Nilfperd-Bild?
Falls nicht, diesen Blogbeitrag von einem iOS12-Gerät mittels Safari aufrufen. Wichtig: Das verwendete iOS-Gerät muss ARKit2 technisch unterstützen! Eine Liste passender Geräte findet sich relativ weit unten auf dieser Webseite: https://www.apple.com/de/ios/augmented-reality/

  1.  Nilpferd-3D-Modell anklicken, Laden abwarten
  2. „AR“ antippen, Objekt in reale Welt (helle Umgebung) einsetzen
  3. Ggf. AR-Objekt verschieben, vergrößern, um das Objekt herumgehen

 


Das Nilpferd hat bereits „App-Erfahrung“ sowie als VR-App als auch als AR-App.
Ursprünglicher Ausgangspunkt war der 3D-Scan des kleinen Nilpferdes per iOS-APP TRNIO, damals exportiert im PLY-Format.
Zwischendrin erfolgte eine Konvertierung nach DAE, und dieses Format wurde nun auch verwendet für die Konvertierung nach USDZ, und zwar per Webdienst Vectary (https://www.vectary.com/). Alternativ hätte man auf einem MAC per Xcode10 und Terminal App eine „OBJ“-Datei nach USDZ konvertieren können (Schema: xcrun usdz_converter ~/Desktop/myFile.obj ~/Desktop/myFile.usdz)

(Update 25.5.19: Zufällig gesehen – Vectary-Konvertierungen nach USDZ sind nicht mehr kostenlos möglich)