Akkus beim Laden zuschauen.

Nächste Woche startet mein Experiment. Ich werde dann 5 Tage lang von 08:00 bis 20:00 am KIT in einem Labor sein. Da werde ich jeden Tag 4-mal einer Gruppe von 5 Personen dabei zuschauen, wie sie Filme anschauen und Fragebögen ausfüllen.

Ja. Unter Forschung stellt man sich gemeinhin wohl etwas spektakuläreres vor. ;-)

Im Moment bereite ich das Experiment vor. Ich habe hier 5 Tablets und Bluetooth-Sensoren. Das wird im Experiment alles auf Akku laufen. Das heißt dann auch, dass der Akku nach Möglichkeit nicht mitten im Experiment schlapp macht.

Wirrwarr

Wie stellt man das sicher, dass das alles funktioniert? Nun. Ich sitze hier und schaue zwei Tablets und Sensoren dabei zu, wie sie sich aufladen und dokumentiere die Zeiten und Ladestände. Zwei anderen Tablets und Sensoren schaue ich dabei zu, wie sich sich während der Nutzung entladen.

Wie gesagt. Mitunter ziemlich wenig Knall und Peng in der Forschung. Bei allem, was langwierig und stupide wirken mag: Ich kann mir keine schönere Thesis vorstellen.

Schöne Weihnachten

Weihnachtsfzibaum
Weihnachtsfzibaum

Die App: TelCoApp

Die App nennen wir – in Ermangelung eines fancy Namen – nach dem, was sie tut. TelCoApp. Damit ist auch schon gesagt, was sie unterstützen soll. Telefonkonferenzen.

Wie sieht diese Unterstützung aus? Logisch aus den bisherigen Postings fortgesetzt wird dies wohl etwas mit Telefonkonferenzen, MoodMaps und EKG zu tun haben. Und so ist es auch. Was kommt also dabei raus, wenn wir MoodMaps, EKG und TelCos in eine App packen? Das:

Der Hauptbildschirm der TelCoApp mit Diagramm, MoodMap und Chat.
Der Hauptbildschirm der TelCoApp mit Diagramm, MoodMap und Chat.

Rechts oben sehen wir die MoodMap. Auf die kann man touchen und damit seine Stimmung eingeben. Links oben sieht mein einen Graphen, der die Herzfrequenzvariabilität (HRV – heart rate variability) anzeigt. Die fällt aus dem EKG-Sensor raus und per Bluetooth in die App rein. Unten ist ein Chat. Unwichtig.

Die App leitet die HRV dann an einen XMPP Server (das ist das Protokoll, über das z.B. auch der Facebook-Chat läuft) weiter. Von dort aus wird ein Mittelwert aus allen Teilnehmer an alle gesendet. Man bekommt also eine Team-HRV, welche den durchschnittlichen Gemütszustand repräsentieren soll. Prinzipiell wäre wohl auch eine Anzeige der durchschnittlichen Stimmung sinnvoll – die hat es aber wohl nicht mehr in die App geschafft.

Was ich im Zuge meiner Arbeit mit dieser App anstelle, und warum ich das anstelle: später.

Vorgänger der App: MoodMap App

Dann will ich mal anschneiden, an welcher App ich im Zuge meiner Arbeit am Mirror Project arbeite: Keine der dort aufgeführten. :P Im Grunde ähnelt sie aber stark einer der Apps, bzw. ist eine Weiterentwicklung: MoodMap App (Bilder dort).

MoodMap also… okay… eine MoodMap ist eine zweidimensionale Karte. Auf der einen Dimension wird Arousal (körperliche Erregung), und auf der anderen Dimension die Valence (positive/negative Empfindung) abgetragen. Dabei kommt beispielsweise raus „ich fühle mich energiegeladen und echt mies“ (= Ärger).

Die MoodMap App wird collaborative eingesetzt – der dargestellte UseCase ist eine Telefonkonferenz. Jeder stellt also seine Stimmung ein, und kann so eine Übersicht über die Team-Stimmung und die eigene im Vergleich gewinnen. Ein weiterer wichtiger Punkt ist die Reflexion und was man daraus lernen kann (dazu gibt’s bereits einen älteren Blogbeitrag).

Mit einer Weiterentwicklung dieser App arbeite ich gerade. Diese Weiterentwicklung existiert bereits – ich selber muss also nicht entwickeln, sondern veranstalte damit ein psychologisches Experiment. Wie diese App aussieht, was sie macht, und was ich damit anstelle… demnächst.

Forschungsprojekt: Mirror – Reflective Learning at Work

Im letzten Beitrag habe ich kurz erläutert, in welchem Forschungsbereich ich stecke – aber noch nicht in welchem Forschungsprojekt. Mirror.

Das Mirror Project ist ein Forschungsprojekt der EU im sogenannten 7th Framework Programme for Research and Technological Development (darüber wird jede Menge Zeug finanziert). Mirror hat den Untertitel Reflective Learning at Work. Nehmen wir das mal auseinander:

at Work: Naja – eben der Kontext des Arbeitens bzw. der Arbeitsstelle.

Beispiel: Ich bin Projektleiter eines kleinen Entwicklerteams bei der IT Mega Consulting GmbH und wir skypen oft mit unseren Projektpartnern.

Reflective: Beim psychologischen/philosophischen Prozess der Reflexion (auch: Selbstbeobachtung, Introspektion) beobachtet und analysiert man die eigenen Verhaltensweisen, Gedanken, Emotionen und Beweggründe.

Beispiel: Auf die Skype-Sessions habe ich wenig Lust und mich graut es immer davor. Meistens schiebe ich sie weit möglichst hinaus. Warum? Mal reflektieren: Ich bin während den Skype-Sessions ziemlich oft gestresst, weil der Projektpartner immer neue Wünsche hat, die Entwickler ohnehin schon überausgelastet sind und ich nicht weiß wie ich das alles managen soll. Aha!

Learning: Oft führt diese Reflexion dann zu einem Erkenntnisprozess und zum Bestreben, eine Verhaltensänderung durchzuführen.

Beispiel: Ich lege wöchentlich eine fixe Skype-Session fest. Den Projektpartner weise ich im Einzelgespräch darauf hin, dass Wünsche okay sind, aber das Projektende verzögern. Zusammen priorisieren wir die Teilaspekte des Projektes, damit eine stetige Auslastung aber keine Überlastung eintritt.

Also durch Selbstbeobachtung dazulernen und sich verbessern. Das (oder so ähnlich) ist Reflective Learning at Work.

Was im Untertitel eigentlich noch fehlt, ist dass das mit technischer Unterstützung geschehen soll. Wie aber kann technische Unterstützung bei diesem Ziel helfen? Dafür werden bei Mirror eine Fülle an Apps entwickelt. Diese sollen über die verschiedensten Herangehensweisen dem Nutzer helfen, mehr über sich zu erfahren.

Ein Beispiel dafür ist das Live Interest Meter (Bilder dort). In dieser App nehmen eine Dozentin und die Zuhörer teil. Die Zuhörer können nun der Dozentin Rückmeldung geben, ob sie zu schnell/okay/langsam ist und ob man den Stoff gut/schlecht versteht. Die Dozentin kann das sehen und sich dann gegebenenfalls Gedanken darüber machen, wie sie den Stoff nächstes mal anders aufbereitet. Sprich: Sie lernt.

Teaser: Beim nächsten mal dann, bei welcher App ich mitmische.

Forschungsbereich: Medizinische Informatik

Im letzten Beitrag habe ich kurz auf die Forschungsbereiche des FZI verwiesen, aber noch nicht angesprochen in welchem Kasten ich da stecke: Medizinische Informationstechnik. Zumindest irgendwie im weitesten Sinne. Das hat weitaus weniger mit Blut, Tumoren und Herzschrittmachern zu tun als es sich anhört. Der nachfolgende Abschnitt von der Website des FZI erklärt das so schön, dass ich ihn einfach zitiere:

Daneben steht die Nutzung medizinischer Sensorik für nicht-medizinische Anwendungen verstärkt im Interesse der Forschung am FZI. So entwickeln wir auch Biofeedback-Anwendungen zur Unterstützung von Lernprozessen im Bereich Technology Enhanced Learning (TEL) […] (Quelle)

Okay. Was ist solch eine medizinische Sensorik in meinem konkreten Fall? Ein EKG-Sensor, den man sich mit einem Gurt um die Brust schnallt und der dann die Herzfrequenz aufzeichnet (und noch paar für meinen Zweck irrelevante Sachen wie Luftdruck und Beschleunigung). Bei meinem Sensor handelt es sich um den ekgMove von movisens (Bilder dort).

Die Sensorik ist geklärt, was aber ist die nicht-medizinische Anwendung? Irgendwie so etwa das, wo es nicht um akute starke gesundheitliche Probleme geht. Da sollte man doch lieber zum Arzt. Wir spielen forschen daran herum und probieren nützliche Anwendungsgebiete aus.

Teaser: Im nächsten Posting sage ich dann auch, in welchem Forschungsprojekt ich beteiligt bin.

am FZI sind die Tassen Public Domain

Seit dem 1. Dezember 2013 bin ich nun als Masterand am Forschungszentrum Informatik am Karlsruher Institut für Technologie. Kurz FZI.

Hier am FZI werden so circa verschiedene Systeme konzipiert und Prototypen entworfen. Auf der Website findet man eine schöne Übersicht über die aktuelle Forschung. An welchem dieser Kästchen ich beteiligt bin – dazu in einem späteren Posting.

Grob geschätzt arbeiten hier so in etwa 100 Personen. Die ForscherInnen fallen wohl meistens nach ihrem abgeschlossenen Studium direkt aus der Uni ins FZI hinein. Sprich: Alles sehr jung hier.

Und natürlich auch ein bisschen nerdig. Auf die Frage, ob die Tassen im Schrank privat oder für alle zugänglich sind: „Die sind wohl public domain.“ Ich glaube, mir gefällt es hier.