IoT Woche 2 – Connecting IoT devices

Woche 2 des „IoT“-MOOCs thematisierte, welche technische Möglichkeiten der Verbindung von IoT-Devices bereits bestehen, gerade entwickelt werden oder nötig sind. Sprich, es ging um Sensoren (hier eine Wikipedia-Seite, die die Vielfalt zeigt), Standards und Verbindungsmöglichkeiten. An sich ein sehr technisches Thema und für Laien sicher nicht geeignet, wurde es in diesem MOOC so gut und interessant aufbereitet, dass ich Einiges gelernt habe. Die Prognose, was in den nächsten 5 Jahren für IoT verwendet werden wird, geht gen „Bluetooth for short range, Wi-Fi for medium scale, cellular for large scale“.

Ursprüngliches Entwicklungziel war ein „low power, low cost, wireless system“ und mündete in dem ZigBee-Standard. Bei ZigBee stellte sich in der Praxis dann aber heraus, dass es zu vielen Fehlern kam und ZigBee nur geeignet war für short range und nicht für large scale (und ZigBee eben unzuverlässig war). Das Resultat war eine hohe Total Cost of Ownership trotz billiger Chips. Wesentliche Anforderungen an IoT communication systems (wie low rate in Verbindung mit long range) wurden also nicht erfüllt, und so wurden andere Lösungen getestet.

Wi-Fi wäre geeignet, braucht aber viel Energie: „That is when the Wi-Fi community started to apply duty cycling, that is, putting chips to sleep for most of the time when no sensing or transmission is happening, with the result of an extremely energy efficient system.“ Das IEEE hat die Arbeit begonnen an dem IEEE 802.11ah Standard, der zudem extended range bietet – Anwendungen werden im Bereich „smart metering, health and social care, industrial process management and control“ gesehen (6000 sensors an einem access point und 1km Reichweite).

Parallel fanden Entwicklungen am LPWA statt (low power wide area networks) mit Daten „>20 km communciation range, urban range 5 km, low cost 1 Dollar pro Chip und 1 Dollar/Jahr subscription“, die in großen Projekten wie Moskau Smart City eingesetzt wurden. Nachteil: Der Daten-Transfer dauert hier durchaus bis zu einigen Sekunden, und mehrere Firmen sind bei LPWA mit ihren proprietären Lösungen unterwegs.

Große Hoffnungen werden auf derzeitige Entwicklungen an 5G gesetzt (wo für ca. 2020 Marktreife erwartet wird), nicht zuletzt auch Richtung „Tactile Internet“, das bereits als nächste Entwicklung nach dem Internet of Things gesehen wird. Zum „Tactile Intenet“ (war mir vorher kein Beriff) fand ich dieses TEDxKingsCollegeLondon-Video im Rahmen des Kurs-Zusatzmaterials aufschlussreich.
4G als erster weltweit adaptierter Standard bietet die Voraussetzung dafür, dass die Weiterentwicklung zu 5G dann auch weltweit verfügbar, sehr zuverlässig, sicher und für eine Vielzahl von Devices („30.000-60.000 devices in a single cell“) nutzbar sein wird.

Für Firmen und deren CEO, CTO, CFO sind folgende Faktoren relevant und werden stets betrachtet: Reliability / Availability / Technology / Viability (Cost)
Interessant im Kurs war dann auch ein Rechnungsbeispiel für ein angenommenes Szenario der Verwendung einer definierten Anzahl von Sensoren auf einem definierten Range von 1km und wie hier die Kosten hochgerechnet für 5 bzw. 10 Jahre für die o.g. verschiedenen Technik-Lösungen aussähen. Da kommen schon recht hohe Geldsummen zusammen; umso wichtiger ist es, die releanten Faktoren bei jeder geplanten IoT-Entwicklung auch wirklich abzuwägen.

Die Verwendung von Standards hat z.B. viele Vorteile: „access to global markets / interoperability with other products / cost savings / helps create new markets“ – Großbritannien sieht sich hier vorne dabei; so arbeitet z.B. das King’s College London im Rahmen einer Kooperation mit Ericsson an der Entwicklung von 5G.

Für Personen, die sich (technisch) vertieft mit dem Wochen-Thema beschäftigen wollen, gibt dieser Artikel hier einen guten Überblick: „Understanding the IoT connectivity landscape„. in: Communcations Magazine, IEEE 2015, 53 (9)

Ich empfand diesen FutureLearn-MOOC auch in dieser Woche wieder als ein sehr gutes MOOC-Beispiel, wie Teilnehmer mit verschiedensten Vorkenntnissen motiviert werden können, sich mit einem Thema zu beschäftigen: von Struktur, Medieneinsatz, Community und Betreuung her wieder eine sehr gelungene Mischung. Der Dozent Mischa Dohler hat den Teilnehmern in den Foren viel motivierendes Feedback gegeben – auch das ist für mich ein Kriterium, denn eine der „ursprünglichen“ xMOOC-Ideen war ja, dass dadurch Interaktion mit hochrangigen Profs renomierter Universitäten möglich wird.

Internet of Things – FutureLearn MOOC

Längst wollte ich mal wieder in FutureLearn reinschauen und passenderweise hat dort gerade am 8.2.16 ein MOOC zum „Internet of Things (IoT)“ begonnen.  Auf der diesjährigen Learntec war soviel von Sensoren und Industrie 4.0 zu hören (s.a. mein Bericht), dass ich großes Interesse hatte, das Thema zu vertiefen. Hin und wieder ist mir die Thematik „Internet of Things“ schon begegnet in den letzten Jahren, so z.B. auch im Horizon Report Higher Education von 2012  und 2015  – jeweils (!) mit Zeithorizont 4-5 Jahre.

Im Folgenden einige Aspekte zum IoT-MOOC, die ich aus der 1. Woche mitgenommen habe. Der Kurs gefällt mir vom Aufbau her sehr gut und zudem ist Prof. Mischa Dohler (King’s College London) sehr engagiert dabei, was für mich persönlich ja auch immer ein sehr wichtiges Kriterium für einen MOOC ist.
Die zu Beginn von Mischa Dohler in einem kurzen Video gestellte Frage „Ist ein Smartphone ein IoT-Device?“ leitete hervorragend in das Thema ein und bot sich auch für die Teilnehmer zur weiteren Diskussion gut an. Eine gute Mischung von informativen (und dennoch unterhaltsamen) kurzen Videos, eigenen Texten im MOOC sowie Verweisen auf relevante IoT-Webseiten bot zudem die Möglichkeit auch ohne die begleitenden Diskussionen zu profitieren. FutureLearn verfolgt mit der Technik der MOOC-Plattform ja von vornherein stark den Ansatz social learnings, aber ich bin froh, dass man nicht unbedingt mitdiskutieren muss – wenn jeder Teilnehmer bei jedem Topic/Kursseite seine unter Umständen „me too“-Beiträge posten würde, würde das Ergebnis für meinen Geschmack auch nicht mehr lohnend sein.
Im Unterschied zu derzeitigen Smartphones ist das IoT gekennzeichnet durch eine Vernetzung von Devices, die autonom über das Internet miteinander kommunizieren. Bereits Anfang der 80er Jahre gab es Bezüge zum IoT, wenngleich der Begriff „erst“ 1999 geprägt wurde.
Die wenigen Quizfragen zu Ende der Woche waren geschickt gewählt, gerade auch die Frage, warum das IoT noch nicht weiter ist: Nein, es liegt nicht an mangelnder Technik oder etwa mangelnden Standards sondern es liegt an mangelnder Nachfrage.
Ob im Rahmen des MOOCs wirklich reale neue Projekte/Produktideen seitens der Teilnehmer entstehen/entwickelt werden, wie es vom Kursdesign her angelegt ist? Das Coaching dazu scheint mir jedenfalls angeboten zu werden.
Eine sehr gute Textseite im MOOC gab es folglich auch zu den Bestandteilen eines IoT-Produkts: Sensors / Connectivity / IoT Plattform für die Daten / Analytics / User interface.

Großbritannien möchte beim Thema IoT eine Führungsrolle übernehmen, wie gut aus dem Government Report von 2014 hervorgeht: Bereiche sind hier Transport / Energy / Healthcare / Agriculture / Buildings.
Im Allgemeinen wird IoT darüber hinaus auch mit konkreten Visionen von smart cars / smart cities / smart traffic systems oder smart clothing verbunden, s.a. dieser Artikel von 2015.

Analysten und Investmentbanker haben das Thema natürlich auch im Fokus (s. McKinsey, GoldmanSachs).

Ich bin gespannt auf die nächsten 3 Wochen dieses MOOCs.

Rückblick 2015

Nach 1 Jahr Pause möchte ich mein Blog wieder aktiv nutzen und da bietet sich doch ein Jahresrückblick zum Thema MOOC an. Nach dem intensiven MOOC-Jahr 2014 habe ich es 2015 ruhiger angehen lassen und stattdessen in einige Plattformen reingeschaut ohne das Ziel, einen MOOC wirklich intensiv mitzumachen. Ein persönlicher chronologischer Rückblick.

Im Februar schrieb ich mich auf der zentralen französischen MOOC-Plattform FUN ein (die auf Open edX basiert und mir schon deshalb sympathisch ist). Mein Französisch reichte mir dann aber doch nicht, um der von der Thematik her sehr interessanten Reihe „Mon ordinateur dans le nuage“ folgen zu können. Dennoch freue ich mich über den Erfolg von FUN, über den  Prof. Mongenet vor wenigen Tagen auf der Learntec berichtete: „From a start-up like project to a public organization“. (https://www.france-universite-numerique-mooc.fr/)

Ende Februar startete der 7-wöchige „Lehrer2020-bw“-MOOC, eine Online-Fortbildung für Lehrer/innen zum Einsatz mobiler Endgeräte. Vom Ministerium gefördert und vom KIT umgesetzt, wurden viele selbst gedrehte Videos angeboten mit Forenaufgaben zu Aspekten wie Verwendung der Smartphone-Kamera, Urheberecht etc. (https://lehrer2020-bw.fsz.kit.edu/) Bemerkenswert fand ich die Zielgruppe Lehrer; auf der anderen Seite kam bei mir nie ein richtiges MOOC-Feeling auf – lag vielleicht auch an der Plattform und/oder der deutschen Kurssprache.

Spannender für mich war im Mai der KLOOC der TU Kaiserslautern auf der Plattform mooin: Das Kapitel 1 mit dem Einführungsüberblick zu Nachhaltigkeit (sollte zum Allgemeinwissen gehören) hat mir sehr gut gefallen und wurde mit einem Badge belohnt. Parallel war es schön zu erleben, was man aus Moodle durch gutes Design alles machen kann – ein Lob an das mooin-Team aus dem Norden. (https://mooin.oncampus.de/mod/page/view.php?id=784)

Im Juni loggte ich mich mal wieder bei Coursera ein, um aktuelle Beispiele der dortigen Kursgestaltung zu sehen. „Enhance Your Career and Employability Skills!“ der University of London konnte man gut als Selbstlernkurs nutzen, den Vortragenden hörte ich wirklich gerne zu und in den Videos gab es gute Ansätze zur eigenen Reflektion (auch wenn man den Job gar nicht wechseln will). Zeitlich parallel hatte ich mich in den Kurs „Paradoxes of War“ (Princeton University) eingeschrieben – sehr engagiert und für Geschichte motivierend, aber zu tieferen Studien fehlte mir dann leider die Zeit.

Im September 2015 wurde ich als DALMOOC-Teilnehmer beider pathways (edX and ProSolo) angeschrieben und bekam von Matt Crosslin das Angebot, an einer DALMOOC Research Study teilzunehmen. Da habe ich natürlich gerne mitgemacht (Fragebogen statt Interview) und bin nun gespannt auf die Ergebnisse, die wohl Anfang 2016 veröffentlicht werden sollen.

Nachdem ich 2014 so begeistert war von dem Justice-MOOC auf edX, habe ich mich für den 3. (?) Durchlauf eingetragen, hatte aber den Eindruck, dass dort inhaltlich nichts Neues war und nun fühlte sich das Ganze irgendwie doch sehr nach Konserve an, was vielleicht auch daran lag, dass sofort alle Module freigeschaltet waren und eben keine Taktung der Materialien mehr stattfand. Interessant für mich war daher lediglich am 7. Oktober 2015 das AMA mit Prof. Sandel auf Reddit. Naturgemäß reichte die Zeit natürlich nicht für alle Fragen (auch nicht für die Beantwortung meiner Frage), aber dafür gab es auf einige wenige Fragen sehr ausführliche Antworten. (https://www.reddit.com/r/IAmA/comments/3nuzvt/i_am_michael_sandel_political_philosopher_author/)

Ende Oktober schaute ich dann mal wieder bei iversity rein, und zwar in den „Climate Change & Health for Policy-Makers“, wo ich überrascht war, dass ich schon beim Durchscrollen der Videos parallel eine Mail mit gestylter „Teilnahmebescheinigung für den Kurs“ erhielt… Immerhin kostenlos, denn die vielen Werbemails von iversity für Rabatte auf Kurse und Geschenkgutscheine zeigen ja nicht nur die Richtung, wo es dort hingeht, sondern nerven für meinen Geschmack langsam auch.

Alles in allem für mich ein Jahr ohne ganz große MOOC-Momente; ich bin gespannt was 2016 bringen wird. Allerdings kann ich mir nicht vorstellen, für einen MOOOC zu zahlen, und das reduziert das potenzielle Angebot (Coursera fährt ja ab 2016 auch eine andere Preispolitik, s. https://blog.coursera.org/post/137649201147) schon etwas.

Learning Analytics MOOC – Week 9 – Wrapping Up

It’s the final week of DALMOOC: On the one hand I am glad that from now on I’ve got time for my other hobbies again (my fish tank needs my attention), on the other hand I look back on nine weeks of really interesting and challenging MOOC activities – again a sincere thanks to all of you! My feedback to course structure and my learning can be found in many of my blog posts, especially week7.

 1. DALMOOC CMAP

Creating a DALMOOC cmap is a very useful task, reminded me of my Master Studies some years ago, where we did that a lot in our learning group. I could have worked a few more weeks on that (already spent many hours and some evenings with it) – Normally I would have created a cmap for each of the 4 main units in DALMOOC and another one for the course structure, so as a result, there is much content in my cmap. The cmap includes my understanding of what was important and what I would like to keep in mind – I hope I got it right and there aren’t too many mistakes in it. Data source and method: I reread my blog posts and copied contents and keywords in the cmap (no, I didn’t do text mining for that…). There are some things I didn’t cover in the map, for instance, ProSolo functions (sorry, it doesn’t mean that I didn’t like ProSolo), learning analytics software, more detailed connections between the units, …

I think, others might be scared  or irritated by the amount/mass of information, but I tried to use colours to make it a little bit easier and to show the original course units. Hopefully, I can use the cmap for my job should the topic arise (at the moment I’ve got my hands full with a lot of other elearning related topics).

DALMOOC CMAP

Download DALMOOC CMAP [jpg]

Download DALMOOC CMAP [pdf]

Download DALMOOC CMAP [cmap]

 

2. Learning Analytics in Germany

Based on competency 9.1, I thought it would be a good idea to collect some links about Learning Analytics in Germany. I didn’t realize at the time that so many conferences and working groups covered the topic „Learning Anaytics“ in their program this year (I’ve attended some of the conferences…).

LA in general

LA as conference topic in Germany 2014 (selection)

Important international societies that are doing research in Learning Analytics are:

 

 (Update 31.12.14)

And that’s my certificate:

dalmooc-cert-kl

Learning Analytics MOOC – Week 8 – Text Mining Nuts and Bolts

Whereas one focus of week 8 was working with LightSide, basic information about the following steps of text mining was provided in this week’s videos (s. https://www.youtube.com/user/dalmooc). We had some reflection tasks, hands-on-experimentation, assignments and group tasks this week – I made the choice to note the main aspects of week 8 and also to do something in LightSide in order go get some practice with it.

1. Text Mining: Data Preparation
As the process of preparing data for data mining / text mining can be very complex and requires a lot of time and thought, you should think at the beginning if it is realistic to achieve and if it is worth doing (e.g. when you can use the trained model for other studies where similar data is collected etc.).

1.1 Cleaning text
It would be nice to have raw data already in a tablular form or at least already in structured form (xml, json, sql) and so being able to use plugins / programming language to get it in a tabular form. In addtion, it can be necessary to aggregate data first because not every entry should be a unit in the dataset for machine learning (perhaps might be done in Excel with some macros). Things like reformatting because of non standard character encoding (UTF-8 would be good, LightSide can handle that format), disfluencies (perfectly formed English in data is unrealistic when doing learning analytics) or text which is in another language (LightSide is configured for English) might need attention  and additional software plugins.

1.2 Annotating data
„Training a predictive model requires annotated training data“ – a set of 1000 instances of labeled data is a good start: 200 as development data, 700 for cross-validation and 100 as final test set. A dataset example which results out of a simple poll already has a label given by the poll (yes/no), but otherwise you would have to think about what you would like to detect in student interaction. Maybe there is already a coding manual of the codes you are interested in.

2. Text Mining: Getting a Sense of Data
The step „getting sense into data“ is a step in the data mining process that many people don’t spend enough time doing and which gets better with own experience and reading linguistic books. The qualitative analysis is an important „precursor to predictive modeling“.
Regarding sentiment analysis, it’s more complicated than reading text, counting positive and negative words (individual words are not enough): context matters, rhetorical strategies may appear, sentiment might be expressed indirectly

3. Text Mining: Basic Feature Extraction with LightSide
Feature extraction is about thinking what we would like to include in the model, what will correlate with what we’re trying to predict.
A noisy predictor of class value would be a term which can be used in different meanings and might therefore for some might mean agreement and for others might mean disagreement with something (like in our Healthcare poll example „cost for one person“ or „cost for society as a whole“ – More context would be needed to be sure of the meaning).

LightSide provides very easy access to a broad range of simple low-level text features.
In LightSide, the panel „Extract Features“ would automatically check off the text field to extract features from – but if you’ve got other variables in other columns of the dataset, in the menu „Feature Extractor Plugins“ besides „Basic Features“ the option „Column Features“ should be checked off also.

In „Configure Basic features“ you have to choose among Unigrams (=Individual words), Bigrams, Trigrams, POS Bigrams (= Part of Speech Bigrams), POS Trigrams, Word/POS Pairs, Line Length, Count occurences, Include Punctuation, Stem N-Grams, and other options (handling of stopwords etc.).

Unigrams are an easy way to try to grab the content of a sentence, but you loose the context and structure of the sentence. With bigrams, there is a already a little bit of ability to disambiguate. With using a combination of unigrams and bigrams the feature space gets much larger which leads to a higher possibility of overfitting – adding richer features gives you more information but comes with a cost.
Another idea is to think about words in terms of grammatical categories, in parts of speech (noun, preposition, verb…): which parts of speech tags occur next to each other? There are standard tag sets for „Part of Speech Tagging“ which can be used.

Line length just counts the number of words in a text and could be meaningful dependent on the kind of text.
Stopwords are often removed in text classification (one of the things which come from information retrieval) – but in text chat it would be the other way round: „contains non-stopwords“ would be interesting.

Features like N-Grams, Part of Speech Bigrams and Word/POS pairs were described as being binary features (true/false), but another way would be thinking about them as count features – that happens if you check off „Count Occurences“ – then they aren’t binary encoded any more.

You have to decide if you want punctuation as part of your feature space or not: Sometimes it just adds noise – not everybody uses it and some use it inconsistently (Yes, that would be me, when writing in a foreign language and thinking about difficult concepts… punctuation isn’t a priority).

Another decision is: Do you want to use stemming or not? Stemming removes the endings from various forms of a word and makes the feature space a little more compact.

These selections interact with eath other and so part of speech tagging is done first (before stemming or stopword removal).

4. Text Mining: Interpretation of Feature Weights
This starts when the model is already built. LightSide has a panel „Explore Results“ (normally used for error analysis) with which you also can look at feature weights. In the confusion matrix (called „Cell highlights“) you can select „feature weight“.
Words that are negative should have a large negative weight when you selected negative data & positive prediction in the confusion matrix (for example „bad“ = -0.8231) At the bottom of the LightSide interface you can choose the Extractor plugin „Documents display“  and check off „Filter documents by selected feature“ and „Documents from selected cell only“ in order to see where in the original text the words occur.

5. Text Mining: Comparing Performance of Alternative Models
In LightSide, you can compare different models by using the panel „Compare Models“. If you want to compare two models with a different feature space (one with Unigrams and one with Unigrams and Bigrams) for a specific text, with the option „Comparison Plugin = Basic Model Comparison“ you can see the performance values and confusion matrixes in one screen. If you switch to the LightSide option „Difference Matrix“, you can look at misclassifications in the text context.

6. Text Mining: Advanced Feature Extraction
„Advanced features enrich the feature space, but expand the size of the feature space – large feature spaces mean added risk of overfitting“
I’d like to keep this short, because as a beginner, I’ll stay with the simpler things at first (= LightSide’s „Basic Features“ in the Feature Extractor Plugin).
Advanced options would be: Stretchy Patterns (for context around a word: definition of pattern legth, gap length and using categories – there are some predefined categories in the Lightside Toolkit Folder), Regular Expressions (help available in LightSide), Character N-Grams (for spelling modifications, consistent endings,..), Parse Features (slow, produces a huge number of features, seldom used).

 

7. Text Mining: Working with LighSide

I did a lot of things in LightSide: Extracting features, building and comparing models, inspecting models and interpreting weights… I’m optimistic, that I understood the technical part of how to do this and that I got an impression of the process and that’s about it.

My results with LightSide are in this attached pdf file:
w8-assignment-ID.pdf

 

LightSide screenshot

(screenshot from my pdf)