How to watch a DVD

Heute ist Mittwoch. Irgendwie passiert das immer wieder.

Mittwochs abends sind oft Veranstaltungen, zu denen ich gehe. Vorletzte Woche Mittwoch z.B. habe ich im Kunst- und Kulturverein Spedition e.V. in Bremen als Zuhörer an einer Vortrags- und Diskussionsveranstaltung teilgenommen, die in der Veranstaltungsreihe city/data/explosion lief. Das Thema war dieses: „Soft Resistance. Die gesellschaftliche Verhandlung der Benutzung von Smartphones, sozialen Medien und dem Konzept digitaler Enthaltsamkeit.“.

Ich erzähle das hier, weil ich eigentlich das folgende erwähnen möchte und bloß einen Einstieg dafür suchte: Die Referentin aus Nürnberg sprach in dem Vortrag u.a. eine Leseempfehlung für das Techniktagebuch aus. Das ist ein Blog auf tumblr. Ich kannte es bereits, hatte aber bisher nur sporadisch darin gelesen und möchte es an dieser Stelle deshalb auch gar nicht zu rezensieren versuchen. Ebensowenig wie jenen anregenden Vortrag von @evemassacre, dessen Videoaufzeichung hoffentlich im Netz rumgeistert (oder wozu macht man sie sonst?).

Ein kleines Beipiel aber doch zum Techniktagebuch: Einer der Einträge letzte Woche Mittwoch hieß Die Überschall-Hotline. Ich zitiere mal frech den kompletten vorletzten Absatz: „Ich bin platt. Sie hat mich also aufgrund der Telefonnummer, von der ich anrufe, identifiziert. In dem Moment, als sie mich begrüßte, hatte sie vermutlich bereits meine Daten vor sich, und die Frage nach meinem Namen war nur ein kurzer Plausibilitätscheck. Damit ist auch klar, warum ich den Namen nicht buchstabieren musste. Und natürlich steht in dem Datensatz alles, was Samantha sonst noch wissen muss: meine Kartennummer, meine Postanschrift, und so weiter.“

Mich erinnert das an ein Erlebnis im Hörsaal 9 im Südgelände der Uni Erlangen. Mitte der 80er Jahre. Es gab eine Sonder-Veranstaltung mit zwei Vorträgen: Der erste Dozent referierte über die Gründe, warum das Layout der Anschlussdosen für die geplanten ISDN-Pilotprojekte nochmal geändert wurde. Der zweite Dozent, Prof. Herbert Kubicek aus Bremen, war angereist, um uns vor den von ISDN ausgehenden Gefahren zu warnen. Service-Hotlines könnten Anrufer aufgrund ihrer Telefonnummer identifizieren und damit automatisiert Daten über die anrufende Person auf den Bildschirm bekommen.

Was ich damit sagen will: Manche Technik-Themen leben lange. (Zwischen diesem Techniktagebuch-Eintrag und meinem Uni-Erlebnis liegen drei Jahrzehnte!) Andere Technik-Themen aber nicht. Das Medium DVD-Video beispielsweise war nur etwa 15 Jahre relevant. Für mich waren das die Jahre 1998-2013. Jedenfalls bis ich, im Jahre 2016, doch noch mal wieder eine DVD abspielen wollte…

So, jetzt kommt’s! Vorgeplänkel beendet. Zum Stichwort DVD wollte ich hin. Es kam nämlich so, dass ich ganz plötzlich geneigt war, den Film „Guardians of the Galaxy“ kurzfristig zwecks Fortbildung studieren zu wollen. Als Abschweifung sei kurz begründet, warum: Es hat damit zu tun, dass ich mich für Verfilmungen von Marvel-Comics aus den 60er und 70er Jahren generell interessiere und sich folgendes begab. Zunächst zur Ausgangssituation:

  • Avengers: Age of Ultron hatte ich mit meiner Tochter im Kino gesehen.
  • Guardians of the Galaxy, der direkt davor erschien, hatte ich noch nicht gesehen. Ich wusste aber, dass er zur „Phase Two“ der MCU-Reihe gehört, die direkt nach Age of Ultron mit Ant-Man endete. (MCU = „Marvel Cinematic Universe“)
  • Ant-Man hatte ich mal bei Maxdome gemietet und angesehen und kannte damit alle anderen MCU-Filme von Phase 1 und 2 — außer eben GOTG (Guardians of the Galaxy).

Es begab sich nun, dass ich plötzlich gelesen hatte, dass die Figur „Star-Lord“ und andere Guardians in den Infinity Wars mitspielen werden, also in Avengers 3 und 4 — dem seit der Verschiebung der Inhumans geplanten Abschluss von „Phase Three“ des MCU. (Die „Phase Three“ wird aktuell eröffnet. Gestern war die Europapremiere von Civil Wars in Berlin.) Das hatte mich sehr überrascht, denn aus ungeklärten Gründen ging ich bisher davon aus, dass sich die Story-Line der Guardians-Reihe in den Rest des MCU-Plots nicht integriert. Wie auch immer ich dazu kam, das anzunehmen.

Und tatsächlich wurde ich auch eines Besseren belehrt: Ich erinnere mich z.B., dass in Age of Ultron gezeigt wurde, wie eine Figur namens Collector sog. Infinity Stones sammelt. Auch in den Guardians war genau das der Fall. Und auch der Bösewicht Thanos war ein Vorgriff auf die kommenden Infinity Wars bei den Avengers. Es ist also tatsächlich ein Film, der doch richtig dazu gehört (und sei es nur für den Gag mit Howard the Duck beim Collector). Vermutlich lag das Missverständnis an mir: Von den Comics „Guardians of the Galaxy“ hatte ich noch nie vorher gehört.

Aber Schluss mit der Abschweife und zurück zur Technik bzw. zum Stichwort DVD. Ich beschreibe jetzt — kommentarlos im Stil des Techniktagebuchs –, was ich getan habe, um mir GOTG anzusehen. Auch hier zunächst zur Ausgangssituation:

  • Von einer Freundin aus Hamburg hatte ich den Film vor langer Zeit mal auf DVD geschenkt bekommen und wollte dieses Geschenk nun zum Einsatz bringen.
  • Ich wollte den Film auf meinem alten großen Tischmonitor sehen und auf meinem neuen Bluetooth-Kopfhörer hören, den ich meiner Tochter abgeluchst hatte.

Die besondere Herausforderung ergab sich hier also durch die Ausgangssituation. Ich wollte 1. explizit eine DVD ansehen und 2. dafür auch nicht einfach unseren alten Tischfernseher nehmen (bei dem man die DVD an der Seite reinschieben kann). Trotz Chromecast-Erweiterung war der nämlich 1. längst eingemottet (man braucht und will heutzutage keine Fernseher mehr) und hätte vermutlich 2. auch kein Bluetooth gekonnt. Ich habe somit auf ein Notebook als Verbindungsstück zwischen DVD, Monitor und Kopfhörer gesetzt:

Problem 1: Mein Notebook hat kein optisches Laufwerk. Den Monitor kann ich da anschließen, aber die DVD kann ich nicht einlegen. Lösung: Das alte Notebook von 2007 auskramen, das ich 2013 außer Betrieb genommen hatte.

Problem 2: Das alte Notebook funktioniert nicht mehr. Nach dem Einschalten muss man eine Stunde warten, bevor sich überhaupt irgendwas tut. Und auch dann tut sich nicht viel. Die Windows-Installation darauf ist definitiv jenseits ihres Lebenszyklusses angekommen. Lösung: Windows neu installieren. (Für Linux bin ich nicht Freak genug.)

Problem 3: Das Windows des alten Notebooks ist noch ein Windows Vista, das man bestimmt nicht neu installieren möchte. U.a. weil es selbst Google Chrome seit Version 50.0 schon gar nicht mehr für Vista gibt. Und abgesehen davon habe ich auch gar keine Installations-CD. Lösung: Ein aktuelles Windows auf einen USB-Stick runterladen und von dort aus installieren. Das Media Creation Tool (MCT) von Microsoft für Windows 10 ist ja genau dafür da.

Problem 4: Mein altes Notebook kann nicht von USB booten. Man kann es auch nicht im BIOS einstellen. Lösung: Dann eben ein ISO-Image von Windows 10 runterladen (geht ja auch mit dem MCT) und eine daraus DVD brennen. Rohlinge habe ich auf dem Dachboden gefunden. (Ich wusste zufällig gerade, wo die sind, weil ich ihn gerade aus und wieder neu einräumen musste, da er gedämmt wurde.)

Problem 5: Ohne optisches Laufwerk ist schlecht brennen, und wenn das alte Notebook nicht mehr tut, geht’s da ja auch nicht. Lösung: Einfach jemanden fragen, der noch brennen kann. Man muss nur unbedingt dazu sagen, dass man bitte nicht die ISO-Datei auf den Rohling gebrannt haben möchte, sondern eine DVD aus der ISO-Datei. (Zum Glück hatte ich noch einen zweiten leeren Rohling.)

Problem 6: Ich habe keine Lizenz. Auch Windows 10 ist lizenzpflichtig, und man kann nicht die Lizenz von dem Windows Vista dafür verwenden. Lösung: Nochmal nachdenken und dann doch eine haben. Und tatsächlich hatte ich noch eine Lizenz für Windows 7 auf einem eingemotteten uralten Tischrechner — und dessen Key ebenfalls auf dem Dachboden gefunden. Dieser wird von Windows 10 akzeptiert. (Zumindest das aktuelle Windows 10 Threshold tut das. Das neue Windows 10 Redstone soll das angeblich nicht mehr tun, und auch Threshold nur noch bis 29. Juli. Aber noch ist ja April.)

Problem 7: Der Grafikchipsatz des alten Notebooks wird von Windows 10 nicht mehr unterstützt. Lösung: Windows 10 trotzdem installieren. Man findet Infos im Netz, wie das geht. Bei Neuinstallation fällt er auf den „Microsoft Basic Display Driver“ (MBDD) zurück.

Problem 8: Der genannte Not-Grafiktreiber MBDD unterstützt den externen Monitor nicht. (Und auch im Notebook-Deckel ist die Auflösung niedrig und falsch.) Lösung: Den alten Vista-Treiber für den Grafikchipsatz manuell aus dem Netz laden und manuell installieren. Wie das geht, beschreibe ich weiter unten, denn das war echt tricky.

Problem 9: Mein altes Notebook kann gar kein Bluetooth. Lösung: Es Bluetooth könnend machen. In einer Box mit Krims und Krams habe ich einen Bluetooth-Dongle für USB gefunden. Reingesteckt und ging. „Connected“ schrie mir der Kopfhörer ins Ohr. (Ich nenne ihn Audrey III, weil er ab und zu gefüttert werden will.)

Problem 10: Windows 10 enthält gar keine Player-Software für DVD-Video mehr. Lösung: Ignorieren. Dies ist defacto kein Problem, denn ich habe DVDs früher immer schon ausschließlich mit dem VLC Media Player abgespielt, weil der — wie auch der o.g. eingemottete Fernseher mit DVD-Einschub — den Regionalcode ignoriert. (Meine DVD-Sammlung ist ein bunter Mix aus aller Welt.) Und der VLC hat in der Classic-Variante auch heute noch Playerfunktionalität für DVD-Video. (In der Universal-App-Variante übrigens nicht mehr.)

Problem 11: Der VLC Media Player steigt komplett aus, wenn man den Kopfhörer berührt. Das muss man aber ständig, weil so die Hörerlautstärke geregelt wird. Lösung: Disziplin bei den Touch-Gesten lernen. Tippen vermeiden. Konsequentes Wischen beim Verändern der Lautstärke anwenden. Klappt nicht immer, aber dann muss man eben jedes Mal aufstehen, die DVD komplett neu starten (inkl. aller Vorspänne und Menüauswahlen) und die Stelle, an der man im Film war, suchen.

Zum Nachmachen hier noch die versprochenen Details zu Problem 8:

(1) Das Treiberpaket runterladen

Im Netz fand ich dazu dies:

Try these steps :
1. open Microsoft Update Catalog in Internet Explorer 6 or newer (will not work on other browser).
2. accept/Yes when prompting to install an add on.
3. type „radeon xpress 200“ in the search box of this microsoft update catalog page.
4. it will show many result, but what you need is the one with version „7.14.10.8333“ because this is a WDDM which will be compatible with Vista but also with 8/8.1/10
5. download the 2.6MB size if your OS is 32 bit, or the 4.6 MB if your OS 64bit.
6. install this driver manually, if you need the guide please google „install windows driver manually“.
good luck.

Zu den folgenden zwei Punkten fand ich hingegen nichts im Netz, konnte es aber durch Ausprobieren herausfinden:

(2) Das Treiberpaket auspacken

Er hat einen Order mit einer CAB-Datei angelegt, d.h. man kann einfach wie folgt vorgehen:
1. Einen neuen Ordner anlegen
2. In den Ordner mit der CAB-Datei reinnavigieren (Doppelklicks), bis man zur *.inf-Datei kommt.
3. Alle Dateien auf der Ebene mit der *.inf-Datei in den unter 1. angelegten neuen Ordner kopieren.

(3) Den Treiber installieren

Im Geräte-Manager den Treiber, der unter „Grafikkarte“ hängt (heißt „Microsoft Basic Display Driver“ oder ähnlich) mit der rechten Maustaste anklicken und „Treibersoftware aktualisieren…“ auswählen. Dann „Auf dem Computer nach Treibersoftware suchen“ wählen und „Aus einer Liste von Gerätetreibern auf dem Computer auswählen“ klicken. Schließlich auf „Datenträger…“ klicken und zur *.inf-Datei in dem unter (2) 1. angelegten Ordner navigieren und die auswählen.

So also guckt man eine DVD!

I Am GrootBild 1: Beweisfoto (Audrey III nicht im Bild)

Advertisements
Veröffentlicht unter Keine Kategorie | Kommentar hinterlassen

Health

Ich habe da mal ganz viele Fragen. In meinem Bekanntenkreis begibt es sich nämlich wie folgt: Die eine hat ein Garmin-Fitnessarmband. Der andere eine Withings-Onlinewaage. Der nächste nutzt eine BikeComputer-App und ein weiterer läuft mit Runtastic. Und ’ne Pebble-Smartwatch hat auch einer. Im Netz stolperte ich bei einem Kontakt zudem über einen Bericht zum erworbenen „Microsoft Band 2“, und in der Presse lese ich gelegentlich über den Begriff „Android Wear“, zuletzt bei einem Produkt von Sony. Aktuell heute erzählt meine Filterbubble von einem „Activity-Tracker“ von Misfit, den man am Hals tragen kann.

Hauptsächlich fällt bei diesen Dingen das Stichwort „Health“, aber es sind nicht nur überall diverse Sensoren dran, sondern es ist auch alles irgendwie „connected“, d.h. irgendwie ist alles auch schon ein bisschen „Internet of Things“. Alles sammelt und verbreitet personenbezogene Aktivitätsdaten oder sogar direkt medizinische Daten. „Wearables“ sind das aktuell hippe Ding, und „Health“ offenbar deren derzeit vorgegebener Haupt-Anwendungsfall. Jenseits der Gesundheits-Plattformen in den Ökosystemen der diversen Geräte-Hersteller gibt es sogar auch noch Ökosystem-übergreifende Datenaustausch-Plattformen mit Namen wie „Microsoft Health“, „Apple HealthKit“ und „Google Fit“. Die großen Datensammler wollen eben auch mitwissen, und möglichst alles.

Untitled
[Apple-Tempel am Kudamm in Berlin am 19. Dezember. Hier kann man die Apple Watch mit einer Armlänge Abstand unter Glas betrachen und dabei ihren Hersteller anbeten.]

Nun sind Geheimdienste, Werbeindustrie und Scoring-Branche ja nicht immer die einzigen Nutznießer der Datensammelei, sondern manchmal auch die betroffenen Personen selber. Zwar helfen auch viele für einen fragwürdigen kurzfristigen Nutzen äußerst aktiv mit, die Datenlage über sie zu verbessern, ohne sich über die langfristigen Auswirkungen davon ausreichend Gedanken zu machen, aber andere haben sich diese Gedanken vielleicht gemacht, und sind einfach nur zu dem Ergebnis gekommen, dass sie sich mit Datensparsamkeit manchmal ausschließlich um den eigenen Nutzen bringen, da die großen Konzerne mit korrelativer Datenanalyse oft genauso weit kommen. Warum dann also die echten eigenen Daten zurückhalten und nichts davon haben.

Weiter eingehen möchte ich auf das Daten(schutzprinzipversagen)thema an dieser Stelle nicht, denn die folgenden zwei Fragen stellen sich unabhängig von der Frage nach den notwendigen Gedanken, die man sich dazu machen sollte: Was für Daten erzeuge ich heute bereits? Und was könnte ich daran ändern und warum? Oder die letztere Frage konkreter formuliert und in zwei aufgeteilt: Wie kann ich den Einsatz der Daten verändern, um den Nutzen für mich zu erhöhen? Und wie kann ich die Qualität der Daten verändern, um den Nutzen für mich zu erhöhen? Dieselben Fragen stellt sich natürlich auch die IT-Industrie aus ihrer eigenen Perspektive, und deshalb ist die Herausforderung die, durch Selberdenken wirklich einen eigenen Nutzen zu identifizieren. Was habe ich davon, und was wird mir nur eingeredet? Und wo kann vielleicht sogar eine Verschlechterung der Datenqualität einen Nutzen für mich generieren?

Um das herausfinden zu können, muss man Lage und Trend der Dinge allerdings überhaupt erstmal ansatzweise verstehen. Wenn mir einer erzählt, er habe einen Fernseher, und ich dann durch Recherche herausfinde, dass man damit in die Ferne sehen kann, dann kann ich den potentiellen Nutzen für mich trotzdem nicht bewerten, weil ich genau weiß, dass ich rein gar nichts verstanden haben kann, ohne Fernsehen selber gelebt und erlebt zu haben. Aber was soll man in Sachen Wearables ausprobieren? Will man heute Fernsehen ausprobieren, muss man auch erstmal auf Youtube oder Vimeo, auf Netflix oder Maxdome und auf die diversen Mediatheken stoßen oder gestoßen werden. Denn Fernsehen ist heute Streaming, auch live. Während zugleich aber andere noch nie davon gehört haben und einen Röhrenfernseher an einem analogen Kabelanschluss betreiben und von einer zeitgenössischen „user experience“ keine Vorstellung haben. Sie würden sich vielleicht auch schütteln, wenn sie sich plötzlich Chromecast-unterstützende Apps zusammensuchen (und den Unterschied zu Miracast verstehen lernen) müssten. Wie also kommt man in die Gedankenwelt der Anwender von connected „Health“-Devices und -Plattformen rein? Was gibt es überhaupt alles?

Genau das meinte ich oben eingangs mit „Ich habe da mal ganz viele Fragen“. Ich habe bestimmt ganz viele — weiß aber noch gar nicht, welche eigentlich. Um mich dem Thema anzunähern schreibe ich am besten erstmal ein paar Antworten auf. Also Dinge, die ich schon weiß oder zu wissen glaube.

Frage 1: Welche Daten werden heute (in welcher Qualität?) schon erhoben und mit welchem Nutzen?

Zum Nutzen:

  • Ein Nutzen für mich ist die Unterstützung von Ausflugsplanung: Ich will spannende Ausflüge erleben (interessante Orte wiederfinden, neue Gegenden entdecken) und habe daher den Android-Standortverlauf (einsehbar über „Meine Zeitachse“ in Google Maps) nicht abgeschaltet. Gelegentlich zeichne ich zusätzlich auch kurze Sessions mit einem GPS-Tracker auf (bisher mit Google My Tracks), nämlich meist dann, wenn ich nicht genau weiß, wo ich bin, und einen interessanten Ort — oder eine Detail-Route — später auf einer Karte ansehen will.
  • Ein Interesse habe ich auch im Bereich gesundheitliches Wohlbefinden: Ich möchte Selbstmotivation für mehr Bewegung und auch für mehr Sport (= Bewegung mit über einen längeren Zeitraum erhöhtem Puls) und habe daher den Android-Aktivitätsverlauf (einsehbar über Google Fit) nicht abgeschaltet. Hier ist der Nutzen bisher sehr gering, zumal Sport ohne Sensoren jenseits des Smartphones nicht sinnvoll erkannt wird. Ich habe ja derzeit keines der eingangs erwähnten Gadgets und Devices.
  • Google Fit zeigt oft auch Ortsinformationen jenseits der „Meine Zeitachse“-Funktion in Google Maps, die manchmal hilfreich sind, wenn man den GPS-Tracker nicht laufen hatte. Und umgekehrt berichten GPS-Tracker auch an Google Fit, so dass mancher Sport (z.B. Fahrradfahren) besser erkannt wird, wenn ein solcher läuft. Kurzum: Dauer-Standortverlauf, Dauer-Aktivitätsverlauf und gelegentliches manuelles GPS-Tracking (gezielt ein- und ausgeschaltet) greifen ineinander und stärken gemeinsam Entdeckertum und Bewegungsdrang.

Zur Qualität:

Zur Bewertung der Datenqualität bei ausgeschaltetem GPS-Tracker (den man nicht immer laufen lassen kann, weil er viel Akku verbraucht) hier ein konkretes Datenbeispiel: Der folgende Screenshot ist mein Standortverlauf vom 29. Dezember (da war ich wieder in Berlin, aber diesmal nicht im Apple-Tempel). Der Standortverlauf glaubt irrtümlich, ich sei von 13:59 bis 20:12 Uhr Auto gefahren und weiß nicht, dass ich in Potsdam war:

Untitled

Geht man auf die Darstellung der Route, so sieht man zwar ein Knäuel in Potsdam, aber das hat keinen Realitätsbezug:

Untitled

Guckt man sich hingegen den Aktivitätsverlauf an, sieht man, dass eine Aktivität „gehen“ von immerhin 90 Minuten in Potsdam erkannt wurde:

Untitled

Hierzu gibt es allerdings keine brauchbare Geoinformation. (Um Akku zu sparen schaltet Google Fit GPS nur dann zu, wenn es am Bewegungsmuster Fahrradfahren erkennt, und auch dann nur gelegentlich, um Entfernungen abzuschätzen.)

Untitled

Einen GPS-Tracker hatte ich in Potsdam nicht benutzt, weil ich den wie gesagt nur einsetze, wenn ich nicht weiß, wo ich bin, und einen genauen Wegabschnitt später auf einer Karte wiederfinden will. Hier daher alternativ ein Beispiel vom 1. Weihnachtstag:

Untitled

Mich interessiert dabei ausschließlich die Karte. Ein Nutzen des typischen Höhe/Geschwindigkeits-Diagramms, das solche Apps bieten, hat sich für mich noch nicht erschlossen. (Man hat in dem Park locker über 40 Meter Höhenunterschied.) Ich gucke da nie drauf, aber so sähe es aus:

Untitled

Das Fazit hier ist jedenfalls, dass man bei ausgeschaltetem GPS-Tracker im Smartphone ohne externe Sensoren bei den unterschiedlichen Verlaufstypen (Standort, Aktivität) jeweils eine in der Qualität deutlich eingeschränkte Datenlage hat. Führt man die Informationen aber zusammen und/oder schaltet man gelegentlich noch einen GPS-Tracker hinzu, werden die Daten deutlich besser. Die besuchte Landschaft hingegen ist ganz unabhängig davon schön:

Untitled
[Blick auf die Lesum am Fuße von Knoops Park]

Frage 2: Wie kann ich den Einsatz der Daten verändern, um den Nutzen für mich zu erhöhen?

Der erste Gedanke, der mir kam: Vielleicht mal ein anderes Auswertungs- und Visualisierungs-Portal probieren. Hier meine (bisher einzige) Probesession mit Runtastic am Tag nach dem Neujahrstag (dem letzten Tag vor dem Schnee) in der Web-Ansicht:

Untitled

Wie man sieht, machen irgendwie derzeit letztendlich alle Tracker und Portale dasselbe, bieten also im Prinzip nur eine Karte und ein Höhe/Geschwindigkeits-Diagramm.

Sehr hilfreich finde ich die Darstellung von Runtastic auch nicht wirklich. Es wird z.B. die Temperatur angezeigt, aber nicht, dass kräftiger Sturm war. So ein Windrichtungs- und Stärken-Verlauf wäre da doch nützlich gewesen. Außerdem ist die Beschriftung der farbigen Streckenabschnitte falsch. Man sieht rechts oben (und im Diagramm unten), dass es 25-43 und nicht 25-125 Meter waren. Also 18 Meter Höhendifferenz und nicht 100. Wenn die überhaupt stimmen, denn Bremen ist wirklich ziemlich flach. Besonders dämlich ist, dass farbige Streckenabschnitte und sogar die Einsicht in die eigenen Rekorde allesamt Premium-Features sind, also im Jahres-Abo 60 Euro kosten. Ich kann für mich somit keinerlei Mehrwert in Runtastic erkennen, auch nicht in der Pro-Version der App (die es immer wieder mal gratis gibt — ich habe meine auch aus einer Promotion-Aktion). Gängige kostenlose Alternativen wie RunKeeper oder Strava habe ich bisher nicht ausprobiert.

Das Fazit hier ist also: Keine Ahnung, ob man aus den bestehenden Daten mehr rausholen kann. Hat jemand Ideen für mich?

Frage 3: Wie kann ich die Qualität der Daten verändern, um den Nutzen für mich zu erhöhen?

Um nochmal bei der Runtastic-Darstellung zu bleiben: Völlig absurd ist hier die Anzeige des Kalorienverbrauchs. Dass ohne Herzfrequenzmessung auch nur halbwegs realistische Werte ermittelt werden können, daran glaube ich nicht.

Apropos Herzfrequenzmessung: U.a. das „Garmin vívosmart HR“-Fitnessband macht — wie auch das Microsoft Band 2 — eine kontinuierliche barometrische Höhenmessung und eine Herzfrequenzmessung mit optischem Handgelenksensor. Und zumindest die Apple Watch (die sich mit Android aber nicht nutzen lässt und sich deshalb als Option disqualifiziert) misst neben der Herzfrequenz auf diese Weise auch die Sauerstoffsättigung dauerhaft. (Wahrscheinlich tun das die anderen Geräte auch, aber das weiß ich nicht.) Möglicher Nutzen: Medizinische Auffälligkeiten entdecken. Aber auch: Sport besser erkennen und somit für die Berechnung des Kalorienverbrauchs mehr als nur Bewegungsdaten heranziehen können.

In der Praxis wird insbesondere das mit der Herzfrequenzmessung sich dann aber doch wieder nur als Theorie herausstellen, weil die optischen Sensoren defacto noch nicht wirklich funktionieren. Runtastic soll man nicht ohne Grund auch eigentlich immer mit Brustgurt laufen. Immerhin dürften die Handgelenk-Bänder mit barometrischer Messung die Höhenmeter auch bei ausgeschaltetem Smartphone-GPS gut erkennen. Das Microsoft Band 2 hat sogar zusätzlich noch ein eigenes GPS. Die Apple Watch hingegen hat weder noch und muss seine „accelerometer/gyroscope“-Sensorkombi immer mit dem iPhone-GPS koppeln.

Und das Fazit hier ist: Ja, mit externen Sensoren kann man genauere Daten mit weniger Akkuverbrauch bekommen. Und es sind gleichzeitig auch noch schicke Armbänder oder Uhren. Aber dafür muss man ein zusätzliches Gerät regelmäßig laden. Der Sinn? Hat ihn jemand entdeckt und kann ihn mir nennen?

Gesamtfazit

Das Ausschließen medizinischer Auffälligkeiten (Pulsaussetzer oder -Hüpfer oder Sauerstoffsättigungslücken) ist mit den derzeitigen Gadgets und Devices schon technisch nicht praktikabel und zuverlässig möglich. Außerdem sind wir da dann hinsichtlich der Datenerhebung sofort doch auch wieder beim Thema „Gedanken über die möglichen langfristigen Auswirkungen machen“. Würde man wirklich solche genauen medizinischen Daten in die Internet-Plattformen husten wollen? (Ich habe diese Frage für mich derzeit mit nein beantwortet.)

Und in Sachen Ausflugsanalyse und Bewegungs-Selbstmotivation habe ich noch keinen potentiellen Nutzen entdeckt, der mir heute noch entgeht. Somit macht es auch keinen Sinn, zur Verbesserung der Daten oder der Akkulaufzeit des Telefons zusätzliche immer wieder aufzuladende Geräte anzuschaffen (auch wenn einige Einfach-Armbänder mit normalen Batterien ein ganzes Jahr halten — aber die sind auch fast nur Selbstzweck und erzeugen jenseits des Schlaf-Trackings keine wirklichen zusätzlichen Daten).

Den Kalorienverbrauch plausibler tracken könnte man vielleicht mit den aufwendigeren Zusatzgeräten. Aber die Aussage im Netz ist meist, dass er auch damit noch nicht plausibel genug ist, um z.B. im Zusammenspiel mit Food-Tracking-Apps eine Diät-Planung machen zu können. Außerdem: Wer würde denn so etwas tun wollen?

Bliebe noch ein potentieller Nutzen, den ich noch überhaupt nicht sehe. Aber vielleicht gibt es für die Anwender gar keinen solchen, und die treibende Kraft der Entwicklung ist allein die Industrie, die bloß an die medizinischen Daten will? In dem Zusammenhang hätte ich dann noch einen Tip: Die Facebook-App zeichnet einen eigenen Standortverlauf auf. Wenn man die App installiert hat und die Funktionen „Freunde in der Nähe“ und „Tipps zu Orten“ beide nicht nutzt, kann man diesen abschalten:

Untitled

Ob Facebook intern dann wirklich weniger Standortverlaufsdaten speichert, ist eine andere Frage.

Auch bei Fotos kann man dem Handy sagen, dass es keine Standortinformationen in die Metadaten von Fotos speichern soll. Dann fehlt einem in den Fotoportalen die entsprechende Zuordnung (z.B. Anzeige in Karten), was man irgendwann bestimmt bereut, oder eben auch gerade nicht. (Ich selber habe es abgeschaltet.) Manchmal ist Datensparsamkeit vielleicht doch eine gute Idee.

Und, wie ich finde, ganz bestimmt bei Daten im Kontext „Health“.

Veröffentlicht unter Keine Kategorie | 2 Kommentare

Fischerhude

Neblig war’s. Damals in Fischerhude. Es war November.

Sonniges Fischerhude

Aber bevor ich die Geschichte von Fischerhude 2012 erzähle, muss ich kurz abschweifen: Durch einen Artikel in der drei Jahre später, also November 2015 erschienenen Ausgabe 26 der Zeitschrift c’t wurde ich nämlich auf die App HyperFocal Pro aufmerksam. Sie berechnet die „hyperfokale Distanz“ zu einer Kameraeinstellung. Ich kannte den Begriff nicht, aber er ist offenbar ganz simpel: Das ist einfach die Entfernung von der Kamera, ab der Motive noch scharf werden, wenn man auf unendlich fokussiert hat. Es ist deshalb nützlich, diesen Wert zu kennen, weil das Unendliche gerade noch scharf bleibt, wenn man gezielt auf die hyperfokale Distanz fokussiert. Die Mindestentfernung scharfer Motive ist dann geringer als bei der Fokussierung auf unendlich und man erhält so die maximal mögliche Schärfentiefe.

Dieses „gerade noch scharf“ ist natürlich subjektiv, weil der „maximal tolerierbare Zerstreuungskreisdurchmesser“ (ein anderer Ausdruck für „gerade noch scharf“) eines nicht in der fokussierten Ebene liegenden Punktes vom Auge abhängig ist, also von der Seh- und Wiedergabeschärfe, der Bildvergrößerung und allerlei anderen Dingen. Die App berechnet daher einen Standardwert aus der Sensorgröße der ausgewählten Kamera und nimmt den für die Berechnung der hyperfokalen Distanz. Der folgende Screenshot zeigt den Zerstreuungskreiswert 0,017879846 mm für den großen Sensor meiner DSLR-Kamera (22,3×14,9 mm² also Crop-Faktor 1,6):

Untitled
[Screenshot mit der Auswahl der Sensorgröße „sensor size“ über das Kameramodell]

Ist die eingesetzte Kamera nicht in der Auswahlliste der App enthalten, kann man auch direkt die Sensormaße eingeben, sowie über einen Parameter der sog. Zeiss-Formel auch noch weiteren Einfluss auf den Zerstreuungskreiswert nehmen. Der folgende Screenshot zeigt die Berechnung des Zerstreuungskreiswerts mit dieser App mit dem voreingestellten Zeiss-Parameter auf dem Standardwert „modern“ für den kleinen Sensor meiner Bridge-Kamera (5,8×4,3 mm² also Crop-Faktor 6,1):

Untitled
[Screenshot mit Berechnung des Zerstreuungskreiswerts „circle of confusion“]

Ich kannte auch den Begriff Zerstreuungskreiswert nicht und kann mit der Zahl als solcher auch nichts anfangen. Aber ein weiterer Nutzen der genannten App ist, dass sie darüber auch den Begriff „Schärfentiefe“ als solchen quantifiziert. Beispiel: Laut der App hat man bei meiner DSLR-Kamera mit Brennweite 50mm und Blendenzahl 1,8 bei 1 Meter Motivabstand eine Schärfentiefe von 2,4 cm. Das ist eine Zahl, die einem alleine nicht viel hilft, die aber oft interessant ist im Verhältnis zur hyperfokalen Distanz. Der folgende Screenshot zeigt die gemeinsame Berechnung der beiden Werte:

Untitled
[Screenshot mit Berechnung der Schärfentiefe „depth of field“ und der „hyperfocal distance“]

Natürlich habe ich diese Werte für das Beispiel nicht zufällig gewählt, sondern weil ich das folgende Foto als Beispielfoto für diese Werte zeigen möchte:

Untitled
[Katzenbild 1]

Im nächsten Katzenbild (ja, es kommt noch eines) ist zum Vergleich eine 2,7fach höhere Brennweite gewählt (135mm), aber mit einem entsprechend um den gleichen Faktor höheren Motivabstand wieder ausgeglichen, so dass die gleiche Bildgröße erreicht wird. Die Schärfentiefe ist dadurch vom Wert her folglich nicht verändert, sondern nur der Bildwinkel (laut der o.g. App von 30,03° auf 11,35°), wodurch weniger Hintergrund zu sehen ist. Der Hintergrund, der noch zu sehen ist, erscheint wegen des geringeren Bildwinkels allerdings dichter, und dadurch wirkt die Schärfentiefe trotzdem geringer, obwohl die cm-Zahl gleich geblieben ist. Der folgende Screenshot zeigt, dass die App auch den Bildwinkel berechnen kann:

Untitled
[Screenshot mit Berechnung des Bildwinkels „angle of view“]

Zugleich ist im Vergleich zum ersten Katzenbild jedoch außerdem 4 Blendenstufen abgeblendet worden (auf Blendenzahl 7,1). Hierdurch wird die Schärfentiefe sehr wohl auch als Wert beeinflusst (dafür wiederum der Bildwinkel nicht). Sie ist laut der App jetzt 9,7 cm, wodurch auch der Hintergrund schärfer wirkt. Dieser Effekt der tatsächlich erhöhten Schärfentiefe durch das Abblenden ist hier stärker als der Effekt der scheinbar gesenkten Schärfentiefe durch den wegen des reduzierten Bildwinkels näher rückenden Hintergrund. Hier also das zweite Katzenbild:

Untitled
[Katzenbild 2]

Man sieht also im zweiten Bild einen weniger breiten und weniger unscharfen, sowie räumlich dichteren Hintergrund als im ersten Bild. Und was im zweiten Bild eigentlich auch ist, man aber nicht sieht, weil sich das Motiv nicht bewegt: eine höhere Bewegungsunschärfe. Denn um die gleiche Bildhelligkeit zu erreichen bedeutet 4 Blendenstufen abblenden ja 2 hoch 4 = 16mal längere Belichtungszeit. Ausgeglichen wurde hier durch eine zumindest 4mal längere Belichtungszeit (1/20s statt 1/80s), sowie eine etwas höhere Signalverstärkung im Sensor (ISO 6400 statt 5000) und vor allen Dingen eine bessere Motivausleuchtung (Licht von vorne).

Aber was hat das nun mit Fischerhude zu tun? Nun gut, ich beende also die Abschweifung und komme jetzt zur eigentlichen Story. Die, in der es nebelig war. 2012 in Fischerhude. Im November.

In diesem Bild ist eine Katze versteckt
[Fischerhude-Katze]

Diese November-Fotos in Fischerhude waren die letzten, die ich mit der o.g. Bridge-Kamera gemacht habe. Bisher einzige Ausnahme: Im Sommer 2015 habe ich nochmal ein Album von Surf-Bildern damit aufgenommen. Hier ein Foto daraus (Brennweite 69,4mm; Blende 5,6; Belichtungszeit 1/1300s; ISO 100):

Untitled
[Surf-Bild]

Die hyperfokale Distanz ist hier laut App 177 Meter. Die Höhe des Sichtfeldes schätze ich auf gut 3 Meter, so dass sich laut App ein Motivabstand von 50 Metern ergibt. Der folgende Screenshot zeigt, dass die App auch das Sichtfeld berechnen kann und sich somit eignet, im Nachhinein einen Motivabstand zu ermitteln (den man dann für die Berechnung der Schärfentiefe braucht):

Untitled
[Screenshot mit Berechnung des Sichtfeldes „field of view“]

Mit dem oben errechneten Standard-Zerstreuungskreiswert ist die Schärfentiefe hier laut App somit 31 Meter. Es war also wichtig, auf den Surfer zu fokussieren. Bei Fokussierung auf den Hintergrund (einfach draufhalten) wäre er unscharf geworden. Auch bei einer Fokussierung auf die hyperfokale Distanz (Hintergrund gerade noch scharf), wäre der Surfer nicht in die Schärfezone gekommen. Dafür waren der Motivabstand bzw. die Blendenzahl zu gering. (Die Blendenzahl war gewollt so niedrig, da ich weder mit dem ISO-Wert rauf, noch mit der Belichtungszeit runter gehen wollte. Ich wollte ein rauschfreies Bild ohne Bewegungsunschärfe.)

Interessant ist noch, welche Werte ich bei der DSLR hier hätte nehmen müssen, um auf die gleiche Schärfentiefe und Bildgröße zu kommen. Die Antwort ist einfach: Die Blendenzahl sollte man mittels der Crop-Faktoren der Sensoren direkt umrechnen können: 5,6 * 6,1/1,6 = 22. Diese Blende kann man bei DSLR-Objektiven tatsächlich einstellen, erhält damit aber nicht mehr bei jedem Objektiv auch noch scharfe Bilder.

Bei der Brennweite wiederum ergibt sich bei sehr großem Motivabstand ebenfalls dieser Umrechnungsfaktor: 69,4mm * 6,1/1,6 = 265mm. Ich hätte hier also ein fettes Tele-Objektiv einsetzen müssen. So eines hätte ich gar nicht gehabt, denn mein 7,5x-„Reisezoom“ geht nur 18-135mm. (Es war in der Tat auch Zoomstufe 15x bei der Bridge, die von 4,6-82,8 mm Brennweite geht, also sehr starkes Tele.)

Kurzum: Um mit der DSLR auch nur annähernd solche Bilder machen zu können, bräuchte es ein Spezialobjektiv, dass dreimal so viel kostet, wie die ganze Bridge-Kamera – und alleine auch schon dreimal so viel wiegt. Der kleine Sensor der Bridge ist hier einfach deutlich überlegen.

Auch die ersten beiden (DSLR-)Katzenbilder oben sind mit verschiedenen Objektiven gemacht, die zudem einige der Einstellungen bereits vorgegeben haben: Bei dem ersten musste die Belichtungszeit so kurz gewählt werden, weil es keinen Bildstabilisator hat, und bei dem anderen musste so weit abgeblendet werden, weil das Bild sonst nicht scharf geworden wäre. Das erste Objektiv kann außerdem nur diese eine Brennweite, bei dem zweiten war der „Reisezoom“ am Anschlag. Ein Zoom-Objektiv bis 135mm, das bei 50mm eine Blendenzahl von 1,8 schafft, gibt es leider nicht für meine Kamera, so dass ich zwei Objektive zum wechseln brauchte.

Aber Fischerhude ist hier das Thema. Was war nun in Fischerhude im Nebel passiert? Was hatte mich veranlasst, direkt danach von der Bridge auf eine DSLR umzusteigen, obwohl mir alle ihre Nachteile bekannt waren? Nachteile und Rückschritte wie

  • dass ich Objektive zwar nun wechseln kann, aber auch muss, weil jedes nur bestimmte Dinge kann
  • dass ich Kompaktheit und Federleichtigkeit verliere und durch einen klobigen und schweren Klotz ersetze
  • dass ich nun keinen elektronischen Sucher mehr habe, sondern nur noch einen optischen, so dass ich das Bild nicht mehr vor der Aufnahme sehen kann
  • dass ich mir statt lautlosem Auslösen nun eine laut klackende Verschlussblende und einen Spiegelschlag eingehandelt habe

Nun: Der Anlass war, dass der kleine Zoom-Hebel der Bridge bei dem Wetter in Fischerhude so schwergängig wurde, dass er mit Handschuhen nicht mehr zu bedienen war, und ich unbedingt einen griffigen Zoomring am Objektiv haben wollte. Das hatte mich so aufgeregt, dass ich schließlich kurzfristig handelte. Die eigentliche Ursache für die Entscheidung in Richtung DSLR war aber, dass ich nach über fünf Jahren mit der Bridge von ihren Fähigkeiten gelangweilt war. Ich wollte mich verschlechtern, um die Herausforderungen zu erhöhen bzw. zu verschieben. Ich war daher bewusst auch ins Einsteiger-Segment bei den DSLR gegangen und hatte eine „Canon EOS 650D“ gewählt. Und auch das ausgesuchte Kit-Objektiv „Canon EF-S 18-135mm f/3.5-5.6 IS STM“ war gewollt nicht gut. Im Weitwinkel war alles total verzerrt und im Tele extrem unscharf, wenn man nicht manuell stark abblendete. Der Zoom war auch viel schwächer als bei der Bridge (7,5x statt 18x), und auch lichtschwächer in dem Sinne, dass die Offenblenden höhere Blendenzahlen hatten, also für die gleiche Belichtungszeit höhere ISO-Werte brauchten. Ich wollte sehen, wie all diese Einschränkungen meine Fotografie veränderten.

Und das Fazit: Im Artikel Nichts bereut hier in diesem Blog schrieb ich schon vor 28 Monaten den Schlusssatz „Hiermit möchte ich kundtun, dass ich es nicht bereut habe. Das Fotografieren macht damit einfach mehr Spaß!“. (Dort sind auch aussagekräftige Vergleichsbilder von Bridge und DSLR/Kit-Objektiv zu den Themen Telereichweite und Weitwinkelverzerrung zu sehen.) Dies gilt auch heute noch. Abgesehen davon gab es auch neue Möglichkeiten, insbesondere im Bereich kurzer Belichtungszeiten bei schlechtem Licht. Hier z.B. das Titelbild aus dem Album Weihnachtsmarkt Bergedorf vom Dezember 2012. Die kurze Belichtungszeit von 1/80s (dank ISO 12800!) wäre mit der Bridge hier völlig unmöglich zu erreichen gewesen:

Untitled
[Feuer-Bild]

Knapp drei Jahre später, also gerade jetzt erst in 2015, hatte ich dieses Erfolgsrezept der technischen Beschränkung sogar noch einmal wiederholt und mich mit dem Zweitobjektiv „Canon EF 50mm f/1.8 STM“ nochmal gewollt weiter verschlechtert: Kein Bildstabilisator mehr, und ganz und gar kein Zoom. Und auch nicht mehr so ein schneller lautloser Fokus wie beim Kit-Objektiv. Dafür aber die Option auf noch geringere Schärfentiefen und damit noch kürzere Belichtungszeiten. Und somit die Möglichkeit, Bilder zu machen, die noch weiter weg sind von den Fähigkeiten der Bridge. (Das erste Katzenbild oben ist so ein Beispiel.) Was soll ich sagen: Ich bin begeistert.

Fischerhude.

Dort fing es an, richtig Fotografie zu werden.

Veröffentlicht unter Keine Kategorie | Kommentar hinterlassen

OneNote

Neulich hier im Blog hatte ich Todoist empfohlen. Ich hatte beschrieben, was ich damit mache — und wie ich das auf die Funktionen des Tools abbilde. Neben Todoist nutze ich aber auch noch weitere Tools für Notizen, darunter Microsoft OneNote, auf das ich heute zu sprechen kommen möchte. Ich möchte heute aber diesbezüglich nicht ebenfalls beschreiben, was ich damit mache und wie ich das auf dessen Funktionen abbilde, sondern erstmal nur, was OneNote überhaupt ist.

OneNote gehört seit Office 2007 zu Microsoft Office, ist heute aber wesentlich mehr. Insbesondere gibt es inzwischen kostenlose Varianten, die technisch an Todoist erinnern: Die Daten liegen in der Cloud, und der Zugriff erfolgt über Mobile-Apps oder über einen Web-Browser. Um OneNote technisch und als Produkt zu verstehen, ist es unumgänglich, zunächst kurz auf den Office-Begriff von Microsoft einzugehen. Es gibt im wesentlichen diese vier unterschiedlichen Office-Begriffe:

  • „Microsoft Office“ ist eine Suite von klassischen Windows-Programmen. Enthalten sind Word, Excel, PowerPoint, OneNote, Outlook, Publisher und Access. Man installiert diese Software auf Geräten und bearbeitet damit Dateien, die man ebenfalls auf den Geräten speichert. Optional kann man die Dateien direkt aus der Software heraus auch in der „Microsoft Cloud“ speichern, genauer gesagt in „Microsoft OneDrive“, das in der Microsoft Cloud läuft. Für den Zugriff auf OneDrive braucht man einen „Microsoft Account“. Dieser hieß früher mal „Windows Live ID“ und davor „Microsoft Passport“, und meist hat man schon einen, z.B. wenn man mal Hotmail oder MSN genutzt hat. Der Microsoft Account ist kostenlos.
  • „Office 365“ ist eine Familie von Aboplänen für Microsoft Office. Mit „Office 365 Home“ erhält man z.B. für die enthaltenen 7 Anwendungen die Lizenz, sie mit 5 verschiedenen Benutzern auf 5 PCs (Windows oder MacOS) plus 5 Tablets (Android oder iOS) einzusetzen. Auf jedem der 10 Geräte dürfen alle 5 Benutzer alle 7 Anwendungen verwenden — auch gleichzeitig. Wenn die Lizenz abläuft, werden wichtige Funktionen abgeschaltet, so dass die Software weitestgehend unbrauchbar wird. Office 365 Home kann man einen Monat lang kostenlos testen (https://products.office.com/de-de/try). Bei z.B. Amazon kriegt man eine Verlängerung um 1 Jahr für €69,99. Monatlich kündbar geht es auch direkt bei Microsoft, kostet dann aber jeden Monat 10 Euro.
  • „Office Online“ ist die Website https://www.office.com, die man mit einem Microsoft Account nutzen kann. Bei deren Verwendung kommt keine lokale Software außer dem Web-Browser zum Einsatz. Die einzelnen Seiten der Site nennen sich „Online-Apps“ und heißen Word, Excel, PowerPoint, OneNote, E-Mail/Outlook.com usw. Man kann damit in OneDrive liegende Office-Dateien online bearbeiten. Office Online ist auch ohne jeden Office-Aboplan gratis. Online-Speicherplatz in OneDrive, der über die kostenlosen 100 GB hinausgeht, muss man dann allerdings über einen Aboplan für OneDrive bezahlen. Eine Erhöhung um 1 TB kostet derzeit z.B. 7 Euro pro Monat. Hat man den Aboplan Office 365 Home, so hat man aber bereits 1 TB OneDrive-Speicher gratis, so dass man eher das Office mieten würde als den OneDrive-Speicher alleine, wenn 100 GB nicht reichen.
  • „Office Mobile“ schließlich besteht aus den sog. „Office-Apps“ (https://products.office.com/de-de/mobile). Anders als die Online-Apps (siehe Office Online) sind das tatsächlich Apps, nämlich Apps für Android in Google Play und für Apple-iOS im iTunes-App-Store und Kachel-Apps (Windows-„Modern UI“) im Windows Store. Unter Windows 10 sind die Office-Apps aus dem Windows Store sog. „Universal Apps“, d.h. sie konkurrieren auf Notebooks mit den Desktop-Anwendungen aus Microsoft Office. Office Mobile ist auch ohne Office-Aboplan nützlich, erhält durch Abschluss von Office 365 aber erweiterte Funktionalität. Die kostenlose Variante speichert nur in OneDrive, also in der Microsoft Cloud. Anders als bei den Online-Apps ist man bei der Benutzung aber zumindest nicht auf eine Netzverbindung angewiesen. Die Notizbücher in OneDrive können auch offline bearbeitet werden und synchronisieren die Änderungen bei der nächsten Verbindung zur Cloud.

Entlang dieser Office-Begrifflichkeiten gibt es entsprechend unterschliedliche OneNote-Varianten, darunter: (1) Die Online-App in Office Online. (2) Die Office-App in Office Mobile für Android oder iOS. (3) Die Universal App aus dem Windows Store, die unter Windows 10 bereits vorinstalliert und im Startmenü als Kachel prominent plaziert ist. (4) Das klassische Windows-Programm aus der Office-Suite. Dieses „OneNote 2016“ alleine ist ebenfalls gratis und lässt sich über http://www.onenote.com installieren. Es wird dabei aber ein ganz schöner Brocken Software installiert (eben ein Stück der Office-Suite), was bei älteren Rechnern schon eine Weile dauern kann. Außerdem verträgt sich ein OneNote 2016 möglicherweise nicht immer mit älteren anderen Programmen von Microsoft Office, wenn davon welche installiert sind, und beschädigt diese womöglich sogar. Auch diese OneNote-Version kann Notizbücher zudem nur in OneDrive speichern. Die Funktion zur Unterstützung lokaler Notizbücher muss bei Bedarf über einen Office-Aboplan — z.B. Office 365 Home — freigeschaltet werden. Ansonsten ist die Funktionalität aber nicht eingeschränkt und mächtiger als in der Kachel-App.

Ich kenne nur diese letzte Variante, also die Desktop-Anwendung von OneNote aus Office 2016. Den Notizbuch-Zugriff über Android-App und Web-Browser brauche ich hier — anders als bei Todoist — fast nie (ich habe beides nur mal ausprobiert), und Kachel-Apps meide ich bisher komplett, weil sie noch allesamt unausgegoren wirken. Für ältere Rechner oder Rechner mit installierten älteren Office-Anwendungen würde ich das Desktop-OneNote aus den genannten Gründen aber nicht empfehlen. Office Online wiederum mag ich persönlich optisch nicht. Insgesamt ist die ganze Office-Geschichte von Microsoft derzeit nichts, was ich weiterempfehlen könnte. Ein OneNote-Notizbuch mit jemandem zu teilen, fällt mir entsprechend schwer. Beim Arbeiten am Notebook finde ich das Desktop-OneNote allerdings dann doch wieder zu praktisch, um es nicht zu nutzen. Hätte ich es nicht, würde mir allerdings auch nichts fehlen. Das ist bei Todoist ganz anders!

Microsofts Weg vom klassischen Office zur strategischen Neuausrichtung „Mobile first, Cloud first“ ist holprig. An den Desktop-Anwendungen hat sich zwischen Office 2010 und Office 2016 kaum etwas getan, aber die neuen Linien Office Online und Office Mobile und insbesondere der Begriff Office 365 für die zahlreichen Abopläne, die sich auf die Funktionen in allen drei Linien auswirken, stiften momentan noch mehr Verwirrung als Nutzen. Vielleicht entwickeln sich die Dinge um Windows 10 herum ja noch deutlich weiter, aber zu erkennen ist das noch nicht. Auch das Geschäftsmodell erscheint mir fragwürdig: Mir sind die Abo-Leistungen von Office 365 zu stark Desktop-lastig, und — anders als bei Todoist — sehe ich für mich keinerlei Nutzen in einem Abo. Andererseits habe ich das Gefühl, bei den Online- und Mobile-Linien von Office — auch anders als bei Todoist — viel zu stark mit meinen Daten zu bezahlen. Den Zwang zur Microsoft-Cloud empfinde ich als die größte Schwachstelle von OneNote und Microsoft Office insgesamt. Denn das ist die Cloud, der ich am wenigsten vertraue. Und das ist ein weiterer Grund, warum es mir schwer fällt, ein OneNote-Notizbuch mit jemandem zu teilen.

Veröffentlicht unter Keine Kategorie | 8 Kommentare

Apple TV ???

Ich habe Apple TV nicht verstanden. Wahrscheinlich liegt das daran, dass ich TV nicht verstehe (siehe dazu meinen letzten Blogeintrag „Entwicklungsland Deutschland: Was kommt nach dem Fernsehen?“). Denn Apple verstehe ich durchaus schon manchmal:

Das am 9. März 2015 vorgestellte neue 12″-MacBook hatte ich z.B. verstanden. Dünn und leicht wie nichts zuvor, perfekte Größe, hohe Akkulaufzeit, endlich ganz lüfterlos und unerreicht mobil mit top Bildschirm, Tastatur und Touchpad. Und das mit einem ordentlichen Betriebssystem. Zur Kritik Anlass waren nur der Preis, die Performance, die Anzahl der Anschlüsse und der Sound. Zugegeben vier Dinge, die jeder für sich ein K.O.-Kriterium darstellen. 1800 Euro für ein weitestgehend nutzloses Spielzeug. Aber das geilste Ultrabook der Welt war es trotzdem. Irgendwer, der sonst schon alles hat, würde es schon brauchen können. Außerdem: Das auch nicht unmobile und hochsolide ältere 13,3″-Macbook Air ist deutlich besser in Preis, Performance, Anschlüssen und Sound und wäre eine Alternative, wenn es nicht diesen unbrauchbaren TN-Panel-Bildschirm hätte. Ein Produkt zu verbessern, dessen Markt wächst, macht aber ökonomisch keinen Sinn. In wachsende Märkte muss man Innovation puschen. Daher kam eben kein MacBook Air mit richtigem (IPS-Panel-)Display, sondern das richtige Display gleich im ganz neuen MacBook. (Das MacBook Pro hatte es schon.) Wie gesagt: Das hatte ich noch verstanden. Diese Strategie hält auch die Preisklasse für die Geräte mit richtigem Display hoch — und damit die Profite.

Und auch das am 9. September 2015 dann endlich vorgestellte 12,9″ iPad Pro hatte ich noch verstanden (es wurde — wie das neue Apple TV — eigentlich schon für März erwartet): Ein Grabbelbildschirm-Gerät mit Riesendisplay und Aufstellvorrichtung, Tastatur im Cover, Splitscreen-Apps und Stiftbeigabe bei Notebook-artigen Dimensionen von Gewicht, Preis und Performance. Bei Microsoft gibt’s das schon lange, heißt dort Surface Pro, und das Surface Pro 4 wird Ende des Jahres mutmaßlich noch vor dem iPad Pro 1 erscheinen. Neu an der Apple-Variante ist nur der Aufpreis für den Stift. Und der Versuch, bei einem PC-Ersatz mit einem Handy-Betriebssystem durchzukommen, was eigentlich nur scheitern kann. Angesichts der seit längerem erdrutschartig wegbrechenden iPad-Umsätze macht es aber Sinn, die Modellreihe derart drastisch auszudehnen. Eine Kannibalisierung der MacBook-Reihe ist dabei mangels Nützlichkeit des Geräts nicht zu befürchten. Das iPad Pro ist eher eine Marketing-Aktion für Image-Zwecke der iPad-Linie insgesamt, und wir werden davon ebensowenig separat ausgewiesene Verkaufszahlen sehen wie für die Apple Watch. Damit hatte ich also, wie gesagt, auch hier verstanden, warum nach einem halben Jahr schon wieder ein teures Gerät kommt, dass niemand braucht.

Was ich aber so gar nicht verstanden habe, ist eben das Apple TV: Das ebenfalls am 9. September 2015 vorgestellte neue Apple TV ist bei gleichen Grundmaßen 43,5% höher und 56,3% schwerer als das alte. Was um alles in der Welt ist da drin? So rein technisch meine ich. Und was um alles in der Welt ist da dran? Ich meine im Vergleich zur Konkurrenz. In Kürze kommt ja auch die zweite Generation von Amazon Fire TV (und der Fire TV Stick verkauft sich wie geschnitten Brot), und auch Android TV — und das nicht nur im Google Nexus Player — verbreitet sich zunehmend (selbst der alte Chromecast verkauft sich immer noch wie warme Semmeln) — neben vielen anderen solcher Betriebssysteme für Beistellboxen und Smart-TVs, die immer besser werden. Und die ganzen Streaming-Plattformen selber bieten ja auch Direktzugang über Web und Android bzw. indirekt über Spielekonsolen und Blu-ray-Player. Was will Apple da mit so einer Popelbox verändern? Nur dadurch, dass die — wie alle anderen Systeme schon immer — jetzt auch Apps kann? Und vom HomeKit (Apples Heimgerätesteuerung) haben sie bei der Präsentation des Geräts auch nicht gesprochen. Das alles, also das ganze Thema Apple TV, verstehe ich überhaupt nicht. Was soll man damit tun? Und vor allen Dingen: Warum?

Mir geht es dabei wie gesagt gar nicht darum, noch mehr Apple zu verstehen, sondern um mein Interesse an der Weiterentwicklung des interaktiven Streamings (als Nachfolger des ehemaligen Fernsehens). Leistet Apple da mit dem Apple TV überhaupt irgendeinen Beitrag? Falls ja: Welchen? (Oder ist es wie Heise sagt: „Von Apples Anspruch, das Fernsehen zu revolutionieren, ist nun kaum mehr als ein Fire-TV-Klon übrig geblieben.“)

Veröffentlicht unter Keine Kategorie | Verschlagwortet mit , , , , , | Kommentar hinterlassen

Entwicklungsland Deutschland: Was kommt nach dem Fernsehen?

Ich schaue mir gerne Serienfolgen — und selten auch mal Filme — an. Seit 2013 allerdings nur noch, wenn alle folgenden Punkte erfüllt sind:

  1. per Streaming (kein Fernsehen und keine DVDs mehr)
  2. legal (irgendwas, das man kaufen kann und darf)
  3. hiesig (ohne VPN anschaubar, das die Anwesenheit in einem anderen Land vortäuscht)
  4. in einem Paket (ohne Einzelabruf-Gebühr oder irgendwelche Kosten jenseits der monatlichen Grundgebühr)
  5. in Originalfassung (unsynchronisiert, ungeschnitten, werbefrei, mit Abspann)

Gern gesehen (aber optional) sind auch noch

  1. Untertitel in Originalsprache verfügbar
  2. Bild in HD

Abonniert habe ich derzeit nur die Pakete von Netflix, Maxdome und Amazon Prime Instant Video. Was die bieten, hängt davon ab, wo man sich gerade befindet. Kürzlich war ich z.B. in Dänemark:

  • Maxdome bietet in Dänemark gar nichts. Man muss sich die Dinge die man dort sehen will, vorher in Deutschland herunterladen. Das verstößt gegen meinen Pflichtpunkt 1 „per Streaming“. In Deutschland bietet es allerdings auch kaum Interessantes. Und es wird meist extrem schnell wieder depubliziert. Das Paket ist eine Art Mediathek der ProSiebenSat.1 Media SE und insgesamt irgendwie peinlich. Ich werde es wohl demnächst kündigen. Ich habe es nur, weil es das schon gab, lange bevor die meisten anderen Dienste in Deutschland am Markt waren.
  • Amazon Instant Video bietet für Deutsche in Dänemark das gleiche wie in Deutschland, weil das bei Amazon am Ort des Accounts hängt und nicht am Ort des Abrufs. Das allerdings ist ebenfalls nahezu nichts, denn Amazon hat fast nichts im Angebot, was meinen Pflichtpunkt 5 „in Originalfassung“ erfüllt. Ich habe Amazon Prime wegen der Kindle-Leihbibliothek für Bücher und wegen der Lieferkonditionen von Gegenständen. Wegen des Instant Video hätte ich es nicht.
  • Netflix ist weltweit nutzbar, aber die verfügbaren Inhalte hängen am Abrufort. Es bietet in Dänemark interessanterweise meinen optionalen Punkt 6 „Untertitel in Originalsprache verfügbar“ fast nie. In Deutschland hingegen sehr oft. Ansonsten ist die Auswahl an aktuellen und attraktiven Serien und Filmen in Dänemark (auch für deutsche Kunden) dramatisch höher als in Deutschland. Das bestätigt, was alle sagen: Netflix macht in Deutschland nur Sinn mit einem VPN in ein anderes Land. Das aber verstößt gegen meinen Pflichtpunkt 3 „hiesig“.

Sehr oft höre ich von Bekannten, dass sie inzwischen > €50 für legale Streaming-Flatrates (inkl. Musik) monatlich ausgeben und trotzdem insbesondere im Bereich Serien noch auf illegale Angebote angewiesen bleiben, weil die legalen in Deutschland so erbärmlich schlecht seien, dass es einfach nicht reicht. Anders als in anderen Ländern würden in Deutschland sämtliche alten (oft kultigen) Dinge fehlen und auch die meisten attraktiven aktuellen. Ich kann das voll bestätigen. Es ist ein bisschen wie mit dem mobilen Internet und vielen anderen Dingen im Netz- und Medienbereich, bei denen Deutschland ebenfalls das weltweite Schlusslicht der Entwicklung ist.

Die Frage ist: Was kann ich tun? Erste Idee: Bei meinem Pflichtpunkt 4 „in einem Paket“ könnte ich Ausnahmen machen. Dazu müsste ich aber einen Blu-ray-Player anschaffen, damit die Einzelausgaben zumindest sinnvoll und nachhaltig sind (also einen bleibenden Wert und einen attraktiven Umfang haben). Ein Gerät, das in ein WLAN streamt, scheint es aber nicht zu geben. Die gängigen Blu-ray-Player scheinen auf Fernseher ausgelegt zu sein, an die sie direkt angeschlossen werden müssen. Aus dem WLAN streamen sie selber dann Netflix, Maxdome, Amazon Instant Video und Co, d.h. sie bieten das Abspielen von Blu-rays nur als Zusatzleistung dem Fernseher an und ersetzen hauptsächlich den Google-Chromecast oder Amazon-Fire-TV-Stick oder die Smart-TV-Funktion des Fernsehers. Das ist aber nicht mein Szenario. Ich möchte den Inhalt der Blu-ray ins WLAN streamen und dann wie alle anderen Sachen auch über App oder Browser anschauen. Denn ich nutze keinen Fernseher! (Obwohl ich einen mit Chromecast habe.) Die erste Idee klappt also nicht.

Bleibt immer noch die offene Frage: Was kann ich tun? Soll ich auf meine Pflichtpunkte „legal“ und/oder „hiesig“ verzichten wie alle anderen auch das gezwungenermaßen tun? Weiter DVDs kaufen kann ich jedenfalls nicht, denn die interessante Ausstattung bei Filmen wie Audiokommentare usw. gibt es mittlerweile oft nur noch auf Blu-ray. Und ich hätte mit DVDs eh genau das gleiche Abspielproblem wie bei Blu-ray. Die Flexibilität, alles überall abspielen zu können, ist für mich zentral und mit DVDs nicht gegeben. Außerdem werden zumindest in den USA kaum noch Serien überhaupt auf Blu-ray angeboten, und dieses Schicksal wird auch die DVD ereilen. Drüben hat sich Streaming in Serienbereich vollständig durchgesetzt. Und der interessiert mich ja hauptsächlich.

Oder soll ich was aus der Sky-Familie probieren? Sky Snap? Oder gar Sky Go? Verlockend klingt das so gar nicht, sondern riecht nach dem Muff von ekligem Pay-TV! Oder kommt gar mit iTunes für Android und/oder der neuen Generation von Apple-TV in Kürze die Offenbarung auf uns zu? Nicht in Deutschland, oder?

Wenn also jemand einen Tip für mich hat… Ich bin da gerade tatsächlich einigermaßen ratlos. (Zum Glück lese ich auch gern und werde Serien und Filme einfach mal längere Zeit ganz weglassen bis ich eine Eingebung oder einen Tip bekomme, wie ich den Knoten lösen könnte.)

Veröffentlicht unter Keine Kategorie | 1 Kommentar

Kein Freifeld Festival 2015

Uff. Eigentlich hatte ich einen Besuch des Freifeld Festival 2015 für den 15. oder 16. August fest eingeplant. Nicht zuletzt, weil mich die Aufarbeitung der Geschichte des Klostergeländes Blankenburg am Stadtrand von Oldenburg interessiert hat, auf dem das Festival diesmal stattfinden sollte. Seit der Ankündigung des Ortes am 10. April hatte ich mich darauf gefreut. Darin hieß es:

Lange Zeit war das Kloster ein Ort der Ausgrenzung: Seit Ende des 18. Jahrhunderts diente es als Verwahranstalt für psychisch Kranke die als unheilbar krank galten. Im Zuge dieser „Verwahrung“ wurden Insassen misshandelt, zu Tode gehungert und während der NS-Zeit einer dezentralen Euthanasie zugeführt. Die Geschichte des Klosters als Psychiatrie für Langzeitpatient*innen fand erst 1988 ihr Ende. Fast nahtlos ging es mit der gesellschaftlichen Ausgrenzung von Menschen weiter. Ab 1992 wurden auf dem Gelände Geflüchtete untergebracht. Von Politik und Verwaltung euphemistisch als „Asylbewerberwohnheim“ bezeichnet, war es de facto ein Lager, mit allen damit verbunden Mechanismen: schlechte Ernährung, Zwang, Unterbringung von Menschen in Räumen ohne Privatsphäre, miserable hygienische Bedingungen.

[…] Freifeld sucht eine künstlerische und menschliche Auseinandersetzung mit den sozialen und politischen Realitäten und versteht Kultur, Freizeit und politisch-künstlerischen Anspruch nicht als Widerspruch, sondern gegenseitige Bedingung. Wir ffreuen uns auf das diesjährige Freifeld Festival als einen Ort des Erinnerns und des Feierns, der Reflektion und der Transformation, der Nachdenklichkeit und Ausgelassenheit, der Wahrnehmung und des Erlebens. Wir wollen diesen Ort der Ausgrenzung zu einem Ort der Gemeinschaft machen.

Nun muss ich aber heute lesen, dass das Festival abgesagt werden musste. Der derzeitige Besitzer befürchtete plötzlich ein „negatives Licht“ für sein Gelände und wollte zu massiv in das Festival-Programm eingreifen. In der Absage heißt es:

Im Mittelpunkt der Festivalvorbereitungen stand für uns nicht nur ein Festival mit Musik, Literatur, Theater, Ausstellungen, Workshops und Filmen zu organisieren, sondern auch einen sensiblen Umgang mit der Geschichte Blankenburgs zu finden und diese sichtbar zu machen. Geplant waren unter anderem Gespräche und Geländeführungen mit Zeitzeug*innen, interaktive und partizipative Formate, die eine selbstbestimmte Entdeckung des Geländes und seiner Geschichten ermöglichen, sowie Ausstellungen und Lesungen, die die Themen Psychiatrie und Flucht reflektieren.

[…] Der bewusste Umgang mit Geschichte bedeutet für uns, dass diese benannt und sichtbar gemacht werden muss. Wir denken, dass Blankenburg nur dann zu einem Ort werden kann, an dem Menschen gerne gemeinsam leben, wenn wir die Geschichte erinnern und bewegen. Wir wollten mit euch tanzen und feiern, wohl wissend, wo wir uns befinden.

Dieses Konzept des „mit euch tanzen und feiern, wohl wissend, wo wir uns befinden“ hatte mir schon im letzten Jahr gefallen, als der Veranstaltungsort noch die Kaserne Donnerschwee war (auch in Oldenburg). Ein paar (nicht repräsentative) Eindrücke zeigt mein Fotoalbum zu diesem Freifeld Festival 2014. Dass das Festival in Blankenburg nun nicht stattfinden kann, finde ich sehr sehr schade.

Untitled

Veröffentlicht unter Keine Kategorie | Kommentar hinterlassen