Kontaktlos bezahlen

Vor ein paar Monaten wurde meine Kreditkarte ausgetauscht. Das passiert alle drei Jahre. Auf der neuen hatte ich ein Symbol für kontaktlose Bezahlfunktion entdeckt und war irritiert. Man solle das Ding im Alltag für Kleinbeträge einsetzen, hieß es im Begleitschreiben. Bei Summen unter 25 Euro würde man nicht einmal PIN oder Unterschrift benötigen. Mit der Kreditkarte im Supermarkt bezahlen? Wer macht denn sowas?

Irgendwann später hatte dann Lidl diese Aktion, dass sämtliche Scheiben und Wände mit riesigen Plakaten zugehängt waren, die einen aufforderten, kontaktlos mit seiner VISA-Karte zu bezahlen, weil man sich dann mit dem Bon dieses Zahlvorgangs im Internet zu einem Gewinnspiel anmelden könne. Ich fand das jetzt nicht so attraktiv (weil ich nie Gewinnspiele mache), habe aber zur Kenntnis genommen, dass man tatsächlich im Supermarkt kontaktlos mit seiner Kreditkarte Kleinbeträge nicht nur bezahlen kann, sondern sogar soll.

Ich habe es dann einige Male auch ausprobiert: Bei Aldi in Hamburg hat es funktioniert. Bei Rewe in Horn ebenfalls. Bei Penny in Utbremen nicht. Penny scheint aber generell eine Ausnahme zu sein, da wohl sämtliche Penny-Filialen sämtliche Kreditkarten nicht nur nicht kontaktlos, sondern sogar überhaupt gar nicht akzeptieren, obwohl Penny zur Rewe Group gehört. So manch ein Blogger rief deswegen sogar schon mal zum Boykott von Penny auf.

Zum kontaktlosen Bezahlen gibt es offenbar unterschiedliche Systeme. So soll z.B. Rossmann „Mastercard PayPass“ und „VISA payWave“ unterstützen, aber nicht „girocard kontaktlos“. Letzteres ist wohl für EC-Karten gedacht, wird aber noch fast nirgends akzeptiert. Meine EC-Karte hat auch gar keine Kontaktlos-Funktion. Also keines von den drei Systemen. Ab 2017 sollen Karten und Terminals nach und nach umgerüstet werden. In ein paar Jahren wird kontaktloses Bezahlen also auch für EC-Karten kommen.

Meine EC-Karte ist so ein klassisches Ding, wie man es zu seinem Girokonto so hat. Vorne steht „girocard“ und „V PAY“ drauf und hinten „GeldKarte“ und „EAPS“. Auch meine Kreditkarte ist so ein klassisches Ding mit Hochprägung der Kreditkartennummer. Drei weitere Ziffern sind nicht hochgeprägt und werden bei Zahlungen im Internet manchmal benötigt. Eigentlich habe ich von der Kreditkarte immer nur die Nummer benutzt, nie die Karte. Einzige Ausnahme waren die Autobahnmaut-Automaten in Frankreich, wo ich die Karte selber reingesteckt hatte. Unterschrift oder PIN waren nicht erforderlich. Meine PIN hätte ich auch gar nicht gewusst.

Generell scheinen sich Kreditkarten weiterzuentwickeln. Als die neue vor ein paar Monaten kam, stand im Begleitschreiben auch, dass ich mich für „Verified by VISA“ anmelden solle. Bei Bezahlvorgängen im Internet werde dann von manchen Portalen eine SMS-TAN verschickt. Ich habe das getan und dann mal in meine Akte geschaut: Drei Jahre vorher, im Begleitschreiben zur jetzt ausgetauschten alten Karte, stand das auch schon. Und auch die Funktion zum kontaktlosen Bezahlen hatte die alte Karte schon. Nichts von allem war also neu. Ich hatte es bisher nur völlig ignoriert. Zum Glück wurde mir mit der neuen Karte auch die PIN nochmal geschickt. Die weiß ich nun also auch. Bei Globetrotter in Hamburg habe ich sie auch schon verwendet. Da war die kontaktlos bezahlte Summe bedauerlicherweise über 25 Euro.

Auf der Kreditkarte vorne steht „VISA CREDIT“, obwohl es im eigentlichen Sinne gar keine Kreditkarte ist, weil man keinen Kredit bekommt und keine monatliche Verrechnung hat. Es handelt sich nämlich um eine sog. Debitkarte. Debitkarte heißt, dass ein Bankkonto mit der Karte verbunden ist, das bei Verwendung der Zahlungsfunktion sofort belastet wird. Ich habe also eigentlich zwei Debitkarten bei zwei verschiedenen Banken. Bei der einen Bank ist das Konto ein Girokonto, bei der anderen Bank ein Tagesgeldkonto.

Eigentlich ist nicht nur der Begriff „Kreditkarte“, sondern auch der Begriff „EC-Karte“ falsch, wie ich seit gestern abend zu wissen glaube. Es war spät am Freitag abend, die Woche war anstrengend, ich war müde und irrte durch’s Internet, um noch müder zu werden. Kurz vor’m Wegdösen stieß ich (schon bequem im Bett liegend) dann auf einen der am selben Tag gerade veröffentlichten Artikel Der Kampf um die „EC-Karte“. Es ging um „girocard“ vs. „Debit Mastercard“ im Streit um das Erbe der „EC-Karte“. Ich las den Artikel im Einschlafen, war verwirrt, und verirrte mich in die Wikipedia, der Begriffsklärung wegen. Also…

…ich dachte bisher, ich habe eine „EC-Karte“ und eine „Kreditkarte“. Ich dachte, mit der „EC-Karte“ hole ich Bargeld aus dem Automaten und bezahle ohne Bargeld an der Tankstelle. Und mit der „Kreditkarte“, dachte ich, reserviere ich Hotelzimmer oder kaufe irgendwas im Internet, wenn PayPal oder „auf Rechnung“ oder „per Einzugsermächtigung“ nicht gehen und ich „Vorkasse per Überweisung“ nicht will.

Aber: Das blau-rote EC-Logo ist (siehe oben) tatsächlich auf keiner meiner beiden Karten drauf. Die Rechte an dem Begriff und an diesem Logo „EC electronic cash“ hat nämlich heutzutage Mastercard. Mastercard betreibt auch das Maestro-System, sowie das neuere System Debit Mastercard, das es als „Ihre sichere ec Karte für grenzenlose Möglichkeiten“ bewirbt. Meine beiden Karten haben mit allen Mastercard-Funktionen nichts am Hut, sind also beide auch keine „EC-Karten“. Damit wäre meine „EC-Karte“ im internationalen Ausland auch nur eingeschränkt nützlich, da das VISA V PAY weitestgehend nur in Europa akzeptiert wird und das girocard sogar nur in Deutschland.

Meine „EC-Karte“ wird alle vier Jahre ausgetauscht. Die Vorversion hatte noch „Maestro“ drauf. Irrtümlich dachte ich immer, das das der neue Name für EC-Karte wäre, aber das war schon immer Mastercard. Allerdings war das nur das alte Debit-System für Girokonten. Für das neue System „Debit Mastercard“ reicht eine Maestro-Akzeptanz nicht aus. Hier bedarf es einer vollen Mastercard-Akzeptanz, die allerdings weltweit ähnlich verbreitet ist wie die von VISA-Kreditkarten.

Und apropos Akzeptanzzeichen: Zur allgemeinen Verwirrung ist das „Electronic Cash PINPad“-Logo das Akzeptanzzeichen für girocard, das aber eben nicht von Mastercard betrieben wird. Die Schrift mit dem blauen ‚e‘ und dem roten ‚c‘ ist jedoch die gleiche wie bei dem EC-Logo auf der Debit Mastercard. Ich finde das sehr verwirrend. Das EC-Logo wird zwar als Akzeptanzzeichen nicht mehr verwendet, aber dass das „electronic cash“-Akzeptanzzeichen und das „electronic cash“ Kartenlogo zu verschiedenen Systemen gehören, finde ich genauso irritierend wie dass „girocard“ gar nicht der neue Name von Maestro ist. Zumindest habe ich das alles bis gestern abend nicht gewusst.

Ich nehme somit drei Dinge als Erkenntnis mit: 1. Es ist so, dass inzwischen unterschiedlichste Debit-Kartenzahlungssysteme im Wettbewerb stehen und einer ständigen Weiterentwicklung unterliegen, sowie dass Rechte an bekannten Logos herumverkauft werden und Akzeptanzstellen ständig ihre Softwarestände aktualisieren müssen. 2. Mit einem flächendeckenden Durchbruch der kontaktlosen Bezahlmöglichkeit ist in den kommenden Jahren bei allen Systemen zu rechnen. 3. Es spricht nichts gegen den Einsatz von Kreditkarten für Kleinbeträge, auch wenn es ärgerlich ist, dass das noch nicht überall geht. Einen Penny-Boykott werde ich trotzdem erstmal nicht erwägen. Meinen Bäcker habe ich gefragt, ob er überhaupt irgendwas anderes nimmt als Bargeld. Er meinte nö. Ein paar Jahre kommt er damit noch durch. Irgendwann aber nicht mehr.

Und nun? Meine Tankstelle akzeptiert neuerdings VISA payWave, aber dafür seitdem meine girocard nicht mehr mit PIN, sondern nur noch mit Unterschrift. Unterschrift mag ich nicht, und für Bargeld sind mir die Beträge zu hoch. Mit anderen Worten: Eigentlich wollte ich nach den o.g. paar Experimenten meine VISA-Karte wieder zuhause lassen. Aber offenbar geht das nicht. Die Gemengelage bei den Kartenbezahlsystemen scheint sich gerade stark zu verändern. Und der „kontaktlos bezahlen“-Trend ist dabei einer der Treiber.

Advertisements
Veröffentlicht unter Keine Kategorie | 1 Kommentar

Schade Apple

Heute mal ein ganz kurzer Beitrag. mobiFlip schreibt eben in MacBook Pro 2016: Ein Kommentar zu den neuen Apple-Notebooks folgendes:

  • „Apple hatte mein Interesse geweckt. Allerdings nicht mit der Touch Bar, das ist eine kleine und nette Spielerei, aber in meinen Augen vollkommen überflüssig, sondern mit dem Modell ohne Touch Bar. Doch dann gab es die finalen Details.“
  • „Das aktuelle Lineup spricht mich aber nicht an. Am liebsten wäre mir ein Display-Upgrade für das Air gewesen. Einfach nur ein Retina-Display und so wie es ist weiter verkaufen.“

Interessiert man sich für ein 13″-Gerät, würde ich beidem zustimmen. Im Vergleich des 13″ MacBook Air mit dem alten 13″ MacBook Pro gewinnt nämlich kein Gerät:

  • Air ist schicker
  • Air ist dünner und leichter
  • Air hat höhere Bildschirmauflösung (1440×900 statt 1280x800retina)
  • Air hat längere Akkulaufzeit
  • Pro hat HDMI-Ausgang
  • Pro hat Force Touch Trackpad
  • Pro hat Display mit IPS-Panel (statt TN-Panel)

Das K.O.-Kriterium beim Air ist das TN-Panel des Displays. Das K.O.-Kriterium beim Pro ist die Display-Auflösung.

Im Vergleich des alten 13″ MacBook Pro mit dem neuen 13″ MacBook Pro ohne Touch Bar gewinnt auch kein Gerät:

  • neu ist dünner und leichter
  • neu hat helleres Display
  • neu hat größeres Touchpad
  • neu hat bessere Lautsprecher
  • alt hat das kultige MagSafe (neu nicht mehr)
  • alt hat einen SDXC-Karten-Slot (neu keinen mehr)
  • alt hat zwei USB-3-Anschlüsse (neu gar keine mehr)
  • alt hat HDMI-Ausgang (neu nicht)
  • alt hat eine bessere Tastatur

Das K.O.-Kriterium Display-Auflösung ist also geblieben. Und ein weiteres ist dazugekommen: Adapterpflicht für alles.

Auch mein Fazit ist also: Hätte das 13″ MacBook Air ein Display mit IPS-Panel bekommen, wäre es das perfekte Gerät. Aber das K.O.-Kriterium wurde nicht verändert. Stattdessen gibt es das 13″ MacBook Pro nun sogar gleich in drei Varianten: alt, neu und neu mit Touch Bar — und das mit Touch Bar dafür dann ohne ESC-Taste. Auf sowas muss man erstmal kommen.

Sofern ich richtig geguckt habe (denn bei Apple-Produkten recherchiere ich traditionell immer schlampig) unterscheiden sich das 13″ MacBook Pro alt und neu (bei jeweils 8GB / 256GB) vom Preis her übrigens nur um 10 Euro (€1.689,00 bzw. €1.699,00). Das zum neuen 13″ MacBook Pro etwa gleich dünne und gleich leichte 13″ MacBook Air ist mit €1.349,00 aber auch nur €350,- billiger. Für ein Gerät mit TN-Panel ist der Preis viel zu hoch. Ich sag’s daher nochmal: Mit IPS-Panel wäre es das perfekte Gerät.

Aber so sind alle vier 13″-MacBooks keine Option. Selbst wenn man sich das K.O.-Kriterium Display-Auflösung beim Pro wegdenkt, hat man die Wahl zwischen einem veralteten und klobigeren Gerät und einem ohne Anschlüsse und ohne MagSafe und einer zurückentwickelten Tastatur (wahlweise mit oder ohne der peinlichen Touch Bar).

Schade Apple. Dann bleibt es eben bei nur einem MacBook in der Familie.

DSC_2080

Kurzer Nachtrag am 2016-12-16: Meine obige Bemerkung „denn bei Apple-Produkten recherchiere ich traditionell immer schlampig“ muss man durchaus ernst nehmen. Konkret scheint hier z.B. mein Punkt „Air hat höhere Bildschirmauflösung (1440×900 statt 1280x800retina)“ falsch zu sein. Im Artikel Schöne Enttäuschung! schreibt Golem nämlich heute „Neu ist die skalierte Standardeinstellung mit einem Bildeindruck von 1.440 x 900 Pixeln statt der 1.280 x 800 Pixel der Vorgänger. Das kann leicht unscharf aussehen, aber in der Regel ist die Auflösung ein guter Kompromiss zwischen Lesbarkeit und verfügbarem Displayplatz.“. Vermutlich wird also bei den neuen Macs ein Down-Sampling mittels Full Screen Anti Aliasing von der 2x-Auflösung 2880×1800 auf das 2560×1600-Display gemacht. Wie genau das beim iPhone funktioniert, hatte ich vor einigen Jahren in Skalierung der Darstellung auf den neuen iPhones beschrieben. Hier bei den Macs jedenfalls bedeutet es, dass die Auflösung in logischen Pixeln beim neuen 13er Pro genauso ist wie beim 13er Air und in physikalischen Pixeln genau so wie beim alten Pro. Dem Fazit dieses Artikels tut das allerdings keinen Abbruch, denn in dem hatte ich durch die Bemerkung „Selbst wenn man sich das K.O.-Kriterium Display-Auflösung beim Pro wegdenkt […]“ ja bereits deutlich gemacht, dass das dafür nicht ausschlaggebend war.

Veröffentlicht unter Keine Kategorie | Kommentar hinterlassen

Westworld

Gestern abend dachte ich einen Moment lang, dass ich manchmal doch ganz schön „konsumorientiert“ bin, also — wie wissen.de den Begriff erklärt — „den Schwerpunkt auf den Erwerb u. Genuss von Konsumgütern legend“. Ich hatte mich nämlich stark für zwei Dinge interessiert: Für die neue Fernsehserie „Westworld“ und für das Google Event, in dem die „Pixel“-Handys und einige andere Sachen vorgestellt wurden. Für beides zusammen ging fast der ganze Abend drauf.

Auf den zweiten Blick war es aber doch keine Konsumgier, die mich getrieben hatte, sondern mein Interesse für langfristige Entwicklungstrends der Gesellschaft. Denn bei „Westworld“ geht es ja (angeblich) nicht (nur) um unterhaltsame Zeitver(sch)wendung auf dem Sofa, sondern (auch) um die Analyse von menschlicher Kultur und der Potentiale künstlicher Intelligenz. Im ZEIT-Artikel Futter für die Junkies heißt es sogar „Die HBO-Serie ‚Westworld‘ ist eine Parabel auf den modernen Serienrezipienten.“. Sowas mag ich ja besonders, wenn gewollt (auch) der Zuschauer das (eigentliche) Thema ist.

Im FAZ-Artikel Roboter sind doch die besseren Menschen steht „‚Westworld‘ wirft Fragen der Gegenwart auf. Etwa, in welchem ethischen Kontext künstliche Intelligenz zu verorten ist.“. Nun ist das bei Science Fiction nicht überraschend, bei der es immer um die Zeit geht, in der sie entsteht, und nie um die Zeit, in der sie spielt. Die Frage ist vielmehr, wieviel Intelligenz die Serienmacher von den Zuschauern einfordern. Bei der Serie „Extant“ beispielsweise, von der ich zwei Staffeln gesehen habe, hatte der Produzent Steven Spielberg seine religiöse Überzeugung zum Thema menschliche, künstliche und außerirdische Intelligenz lediglich zum wiederholten Male in identischer Form als oberflächliche Botschaft implementiert und in der von ihm gewohnten Kitschigkeit inszeniert. Von „Westworld“ verspreche ich mir nach der Lektüre der Berichte sehr viel mehr.

Auch das andere Thema des Abends, das Google Event, passt zum Thema Künstliche Intelligenz, denn die Fragestellung war nicht, was Google für Produkte herausbringt, sondern sie war viel abstrakter: Was ist Googles Strategie insgesamt? Was ist seine Taktik? Wie steht das zu den sog. „Megatrends“ Globalisierung, Digitalisierung und Individualisierung? Die Antwort, die Google gestern auf die Strategiefrage gegeben hat, ist nämlich, dass das nächste große Dinge nach „Google Search“ der Google Assistant werden soll. Eine Künstliche Intelligenz. Und die Taktik ist, das Google jetzt auf Apple macht, also statt Schrott für Nerds anzubieten („Nexus“-Produkte) nun auf übergreifend zusammenspielende Edel-Produkte setzt und zum vertikal integrierenden Hardware-Hersteller mit exklusiver Software und Cloud-Diensten mutiert — und dafür sogar bewusst der eigenen Android-Plattform schadet, wie es Golem im Artikel Google Assistant schadet der Android-Plattform treffend bemerkt.

Aber zurück zum Konsum. Die neue Google-Welt interessiert mich überhaupt nicht. Wer Simon Sineks Buch Start With Why gelesen hat, der weiß, dass für die Leute das Gefühl kaufentscheidend ist, warum eine Firma ein Produkt entwickelt hat. Und gefühlt will Google einfach nur an sämtliche persönlichen Daten ran. Apple hingegen will gefühlt lediglich an sämtliches Geld. Dafür stehen Apple-Produkte aber auch für Status und Werterhalt, während hochpreisige Google-Hardware eher peinlich ist, sowie alle Google-Software-Dinge ständig von Einstellung bedroht. Der Google Assistant mag schlauer sein als Apples Siri oder Amazons Alexa (und erst recht als Microsofts Cortana), aber ich mag ihn nicht. Einfach wegen des subjektiven Warums seiner Existenz. Ich will keine künstliche Intelligenz von Google!

Außerdem ist die Frage berechtigt, ob wir mit dem heutigen Deep Learning-Ansatz wirklich schon viel näher an Künstlicher Intelligenz sind als mit den Prolog-Programmen aus den 80er Jahren, in die damals insbesondere Japan (am Ende erfolglos) so viel investiert hatte. Falls nicht, geht es letztendlich erstmal nur um den Handel mit den Daten. Technologiekonzerne verbünden sich bei künstlicher Intelligenz stand allerdings vor ein paar Tagen im Spiegel. „Google, Facebook, Amazon, IBM und Microsoft bündeln ihre Kräfte für eine neue Partnerschaft bei der künstlichen Intelligenz“ heißt es darin. Um „Ethik, Fairness und Inklusivität, Transparenz, Datenschutz und Interoperabilität“ bei der „Zusammenarbeit zwischen Mensch und KI-Systemen“ soll es gehen. Apple ist nicht dabei, aber die forschen bestimmt auch. Das Thema kommt auch in einigen Megatrend-Übersichten vor. In der von zukunftsstark.org ist es Punkt „13. Intelligente Produkte und Infrastrukturen“ und etwas weniger ambitioniert formuliert. Dort geht es nur um „Einbinden aller Alltagsgegenstände in ein digitales Netzwerk“ und „Vereinfachte Benutzerführung bis hin zur Vollautomatisierung“. Ich glaube auch, dass eher das Internet of Things ein Thema der nächsten Jahre wird als wirklich irgendeine Künstliche Intelligenz.

Insofern kann ich mich erstmal auf die Frage konzentrieren, wie ich mir „Westworld“ denn nun anschauen kann, denn die vielen Berichte, die ich dazu gestern während der Live-Übertragung des Google-Events gelesen habe, lassen es doch recht vielversprechend und interessant erscheinen. Das oben erwähnte Extant hatte ich damals bei Maxdome im Flatrate-Paket gesehen. Inzwischen gibt’s das bei Amazon Prime (auch Flatrate). Aber wo gibt’s Westworld? Neben Maxdome und Amazon habe ich ansonsten nur noch Netflix. Der oben verlinkte Artikel in der ZEIT endet aber mit dem Satz „‚Westworld‘ läuft in der Nacht vom 2. auf den 3. Oktober zeitgleich zum US-Start auf Sky Go und Sky On Demand.“. Diesen letzten Satz habe ich nicht verstanden. Was heißt denn „läuft“? Meint das „verfügbar ab“? Und was sind „Sky Go“ bzw. „Sky On Demand“? Flott mal bei Sky direkt nachgeguckt: Dort steht zu „Westworld, Sci-Fi-Serie, USA 2016“ dies:

  • „Sky präsentiert die neue Sci-Fi-Serie „Westworld“ zeitgleich zum US-Start ab dem 3. Oktober jeweils in der Nacht von Sonntag auf Montag in Originalversion auf Sky On Demand, Sky Go, Sky Ticket.“
  • „Die lineare Ausstrahlung der zehnteiligen Sci-Fi-Westernserie, wahlweise auf Deutsch oder Englisch, wird voraussichtlich im Frühjahr 2017 auf Sky Atlantic HD erfolgen.“

Huch? Noch drei Vokabeln: „Sky Ticket“, „Sky Atlantic HD“ und „lineare Ausstrahlung“. Aber keine Erklärung zu dem „läuft“ aus der ZEIT. In dem auch oben verlinkten FAZ-Artikel steht als letzter Satz auch nichts mit „läuft“, sondern „Westworld startet am 2. Oktober bei Sky.“. Also „startet“ und „bei Sky“ (FAZ). Nichts mit „läuft“ und „in der Nacht vom 2. auf den 3. Oktober“ (ZEIT). Und auch nichts von „lineare Ausstrahlung“ erst „im Frühjahr 2017“ (Sky). Ich werde nicht schlau draus. Aber weitergoogeln hilft, insbesondere zu den mir bisher unbekannten „Sky“-Begrifflichkeiten:

  • „Sky“ ist offenbar irgendwas mit Fernsehen (Pay-TV-Karte mit Decoder-Gerät für einen Fernseher), also ein obsoletes Konzept aus dem lange vergangenen letzten Jahrtausend. Der Decoder (Hardware!) kann wohl auch klassisches „aufzeichnen“ (Timeshift und so) — gruselig.
  • „Sky Go“ ist wohl ein Streaming-Angebot für Leute mit Sky-Abo (im Preis enthalten). Damit soll man die abonnierten Sky-Inhalte auf normalem Weg anschauen können (Handy, Notebook).
  • „Sky On Demand“ (hieß vorher offenbar mal „Sky Anytime“) ist auch irgendwas für Leute mit Sky-Abo. Ich glaube das versorgt einen Sky-Dekoder mit Material aus dem Internet und ist wohl zum Offline-Gucken von heruntergeladenen (statt aufgezeichneten) Inhalten am Fernseher.
  • „Sky Ticket“ (hieß vorher offenbar mal „Sky Online“ und davor offenbar mal „Sky Snap“) geht wohl ohne Sky-Abo und ist eine Art Mediathek-Flatrate (so wie Netflix). Es geht nur online (eben wie Netflix), hat aber nur ausgewählte Inhalte. Es gibt aber ein „Entertainment-Monatsticket“ für Serien und so, in dem auch Westworld drin ist.
  • Meine Vermutung ist, dass jede Woche direkt nach der HBO-Ausstrahlung in den USA eine Folge in Sky Ticket dazu kommt. Vermutlich ist das mit dem „läuft“ gemeint.

Und nein, ich werde mir kein Sky Ticket holen. Auch nicht für nur einen Monat, sobald die Serie vollständig verfügbar ist. Irgendwann wird Westworld durch die anderen Streaming-Dienste wabern. Ich kann (auch Jahre) warten, denn mir das dann angucken zu wollen, werde ich nicht vergessen.

Es ist ein Konsumwunsch.

Veröffentlicht unter Keine Kategorie | Kommentar hinterlassen

Smart-Koks

Eine Smartwatch am Arm zu tragen, um die Zeit anzuzeigen, ist ungefähr so, wie ein Smartphone ans Ohr zu halten, um zu telefonieren. Behaupte ich.

Was will ich mit diesem Vergleich sagen? Dass man das zwar jeweils machen kann, aber dass es eben nicht mehr der Hauptzweck des Gerätes ist? Oder dass es mit den dedizierten Geräten, bei denen es der Hauptzweck war, sogar besser ging? Oder will ich mit dem Vergleich sagen, dass man diese Dinge mit den „Smart“-Geräten so oft überhaupt nicht mehr macht? Oder deutlich anders macht?

Und wie stark hinkt dieser Vergleich? Für wenig hinken spricht, dass beide Geräte klassische Gadgets sind (Armbanduhr, Mobiltelefon), die mit erweiterten Funktionen versehen wurden, deren Sinnhaftigkeit, sich nur langsam erschließt — aber Menschen, die schon damit aufgewachsen sind, angeblich in besonderer Weise. Für viel hinken spricht, dass noch überhaupt niemand mit Smartwatches aufgewachsen ist und deshalb keiner weiß, wie Smartwatches von solchen Menschen getragen werden — und wie sie dann überhaupt aussehen und benutzt werden.

Bleiben wir mal bei der These, dass man mit „Smart“-Geräten manche Dinge „deutlich anders macht“. Sascha Lobo fragte z.B. kürzlich Was ist das für eine komische Geste beim Telefonieren? und gab auch gleich die Antwort: „Das Smartphone wird beim Telefonieren nicht mehr ans Ohr gehalten, sondern wie ein koksbestreuter Taschenspiegel vor die Nase. […] Der Unterschied zu den Telefoniergesten vergangener Epochen (Hörer ans Ohr pressen) ergibt sich nämlich gar nicht aus dem merkwürdigen Verhalten der jüngsten Generation, sondern ist ein Ausweis der Gewohnheit der älteren Generationen, die wiederum aus einer längst vergangenen Technologie-Epoche übriggeblieben ist. […] Die Smartphone-Generation hat den historischen Verhaltensballast des Ohrpressens abgeschüttelt und durch ergonomisch und körperökonomisch sinnvolle Verhaltensweisen ersetzt. […] Das klassische Telefonat war eine völlig künstliche Mediengattung, starr, penetrant und gestrig. Aus der Funktionenarmut und Technologienot geboren, entstanden durch die Limitationen altertümlicher Technik.“

Es gibt also tatsächlich eine „Smartphone-Generation“, und man erkennt sie am Verhalten. Nehmen wir das mal so hin und hinterfragen an anderer Stelle, ob das nicht doch völliger Mumpitz ist. An dieser Stelle hinterfragen wir erstmal nur dies: Wird es auch eine „Smartwatch-Generation“ geben? Die Antwort findet man indirekt auch bei Lobo: Er bezeichnet das Smartphone in dem eben genannten Artikel als „Taschenplattform, die jüngster und machtvollster Kristallisationspunkt des digitalen Kapitalismus ist“. Wenn man den Gedanken — also den „digitalen Kapitalismus“ als Treiber — auf die Smartwatch anwendet, dann wird es bei dem heute „Smartwatch“ genannten — ich nenne es mal abstrakter „schmucken Gadget mit engem Körperkontakt“ — nicht um das gehen, was es besser signalisieren kann (durch Vibration, Stöße, Geräusche und Anzeigen), und auch nicht um Interaktion (schnellere, einfachere Reaktion auf Ereignisse), sondern um das, was es misst. Die Smartwatch ist ein Sensorpaket. Sie stellt Körperdaten ins Internet. Oder frei nach Lobo: Sie wird ein Kristallisationspunkt des digitalen Kapitalismus auf den Sensordaten.

Dieses „schmucke Gadget mit engem Körperkontakt“ heißt heute schon neudeutsch meist „Wearable“ und nur selten „Smartwatch“, weil die meisten Wearables gar nicht den Charakter einer Uhr haben. Der Begriff „Smart“-Uhr ist nur interessant, weil es eben auch ein „Smart“-Telefon gibt. Also jeweils den Versuch, ein unbekanntes Gerät über eine bekannte Funktion von historischen Geräten zu vermarkten. Der Vergleich hinkt also nicht, und er sagt auch was. Eine Smartwatch am Arm zu tragen, um die Zeit anzuzeigen, ist tatsächlich ungefähr so, wie ein Smartphone ans Ohr zu halten, um zu telefonieren. Man hat erstmal etwas, das man kennt, und es ist jetzt zusätzlich „smart“. Und was dieses „smart“ einem bringt, das kriegt man dann schon irgendwann raus — oder eben nicht. Aber wenn man es wissen will, ist ausprobieren angesagt.

Ich erinnere mich, wie ich Anfang des Jahres mal versucht hatte, das ohne auszuprobieren rauszukriegen. Im Blogeintrag Health hatte ich versucht, aus einer spekulativ und theoretisch ermittelten Nutzenssteigerung gegenüber dem Smartphone als alleinigem Gerät einen Gerätekaufwunsch für ein Wearable abzuleiten. In dem Beitrag diskutiert hatte ich so Fragen wie „Welche Daten werden heute (in welcher Qualität?) schon erhoben und mit welchem Nutzen? Wie kann ich den Einsatz der Daten verändern, um den Nutzen für mich zu erhöhen? Wie kann ich die Qualität der Daten verändern, um den Nutzen für mich zu erhöhen?“. Aber tatsächlich ausprobiert hatte ich nichts. Und so weiß ich bis heute nicht, wie es so ist, wenn die Armbanduhr „smart“ ist. Wo ist da das Koks?

Aber wenn ich nun erstmal einfach irgendein Gerät kaufen und benutzen will, um das Theoretisieren durch was Reales zu unterbrechen. Welches nehme ich denn dann? Wonach gehe ich? Die Antwort ist klar: Ich bin die „ältere Generation, die aus einer längst vergangenen Technologie-Epoche übriggeblieben ist“, also nehme ich etwas, das schon etwas darstellt, was ich kenne: Also kein futuristisches Wearable, sondern eine klassische Smartwatch. Eine Armbanduhr. Und ich gehe auch nach den klassischen Kriterien: Sieht gut aus und kann die Zeit anzeigen. Und vielleicht als klitzekleines Zusatzkriterium: Es muss irgendwie mit dem bestehenden Android-Handy zusammenspielen, und die in Health beschriebenen heute bereits erhobenen Smartphone-Daten müssen besser werden. Es braucht also nativen Support von Google Fit.

Der erste Blick geht naheliegenderweise auf das Portfolio von Android Wear. Denn das unterstützt Google Fit und Google Now per Definition nativ. Leider ist da aktuell nichts für mich dabei, was ich schön finde.

Der zweite Blick geht auf Samsung Gear. Die „Gear S3 frontier“ sieht schick aus (und hat das für eine Uhr sensationelle Feature einer „Always-on“-Zeitanzeige!), ist aber zu riesig und zu teuer. Dann lieber den Vorgänger erwägen: Die „Samsung Gear S2 Classic R7320 schwarz“ sieht auch ok aus und ist inzwischen satt im Preis gefallen (auch bei Amazon und bei Saturn auf unter € 300,-). Bedauerlicherweise steht in Cachys Blog dazu „Google Fit mochte die Daten der Gear S2 nicht, beziehungsweise bot mir gar nicht an, dass ich diese in Google Fit übernehme.“ und „Das Vibrieren der Gear S2 ist nicht nur laut, sondern auch nicht so eindringlich, wie man es erwarten würde. Es kam öfter vor, dass ich eine Vibration zwar gehört, aber nicht gespürt habe, obwohl die Smartwatch definitiv nicht zu locker angebracht war.“ sowie „Das Armband der Gear S2 ist fest mit dem Gehäuse verbunden. Also nicht fest im Sinne von „lässt sich nicht wechseln“, aber der Winkel, in dem das Armband das Uhrengehäuse verlässt, ist vorgegeben.“. Andere berichten Ähnliches. AndroitPit z.B. „eingefleischte Google-Nutzer müssen mit der Gear S2 auf liebgewonnene Apps wie Google Fit und Google Now verzichten und auf Samsung S Health und S Voice umsatteln“ und „Das Armband ist zwar flexibel und komfortabel zu tragen, aber an dem Uhrengehäuse ist es sehr steif und das kann für breite Handgelenke schmerzhaft werden.“.

Samsung Gear steht also nicht nur für ein eigenes Betriebssystem bei sämtlichen Wearables (namens Tizen), sondern auch für den Zwang zu den hauseigenen Plattformen für Healthdaten, Spracherkennung und Informationskarten. Dass man Samsung Gear mit Android benutzen kann, ist somit eine Falschinformation. Gemeint ist nur das Zusammenspiel mit Android-Geräten, aber eben nicht mit den Standard-Android-Diensten, um die es geht. Im Artikel Marktforscher sehen nur langsames Wachstum bei Smart-Watches bei Heise heißt es außerdem: „Für das Betriebssystem Tizen, auf das Samsung bei seinen Smartwatch-Modell setzt, sieht IDC hingegen nur eine eingeschränkte Nachfrage. Die Experten rechnen bis 2020 mit einem Anstieg der Verkäufe von 2,6 auf 3,8 Millionen Geräte, während der Marktanteil von rund 13 auf 7 Prozent fallen werde.“. Kurzum: Samsung ist bei Wearables ein völliges No-go. K.O.-Kriterium ist hier nicht nur das eigene App-Ökosystem (Tizen statt Android Wear), sondern eben vor allen Dingen der Zwang zu den eigenen Datenplattformen. (Hier sieht man, dass es der Industrie nicht nur um den Geräteverkauf, sondern vor allen Dingen um den „digitalen Kapitalismus auf den Sensordaten“ geht — siehe oben.)

Bleibt noch der dritte Blick: Und der geht auf die Apple Watch. Natürlich fällt die gleich raus, weil sie nicht einmal überhaupt mit Android-Smartphones benutzt werden kann. Sie hat nicht nur ebenfalls ein eigenes Betriebssystem (Apple watchOS) und damit App-Ökosystem — und natürlich ebenfalls den Zwang zu eigenen Datenplattformen (Apple Health und Siri) — sondern sogar noch den Zwang zum iPhone. Sie ist eine iPhone-Extention. Kein Wearable. Als Android-User muss ich mir also keine Gedanken machen, ob die Apple Watch einen Nutzen hat oder nicht, denn sie hat unstrittig überhaupt keinen Nutzen, da sie ohne iPhone nicht betrieben werden kann. Ich darf mir aber Gedanken machen, ob ich sie schön finde. Und ich finde. Zumindest manche Modelle.

Beispiel: Apple Watch Series 2 (Aluminiumgehäuse Gold, Armband gewebtes Nylon Kaffee/Karamell, 449 Euro). Alternativ gibt’s das auch 41 Euro billiger, nämlich als Apple Watch Series 1 (Aluminiumgehäuse Gold, Sportarmband Kakao, 349 Euro) plus dem gewünschten Armband (gewebtes Nylon Kaffee/Karamell, 59 Euro) als separates Zubehör. Für die 10% Aufpreis für Series 2 kriegt man die Watch mit einem etwas helleren Display bei grellem Umgebungslicht, etwas wasserdichter und mit einem Not-GPS (mit starkem Akkuverbrauch). Das braucht man alles definitiv nicht, aber man braucht ja auch die ganze Apple Watch nicht, insofern wäre es für den Wiederverkaufswert wahrscheinlich besser, die Series 2 zu nehmen — auch wenn man dann nur 1 Armband hat (aber das zusätzliche Sportarmband braucht man ja auch nicht). Idealerweise würde es die Series 1 gleich zusammen mit einem schicken Armband geben, so dass man mit 349 Euro insgesamt auskäme, was ja auch schon genug Geld ist. Aber leider ist das nicht der Fall — und mangels Android-Support zugleich irrelevant. Denn wer iPhone nicht will, kann eben auch nicht Apple Watch.

Und nun bin ich am Ende. Samsung und Apple scheiden aus den beschriebenen Gründen aus, und im gesamten Bereich von Android Wear finde ich derzeit nichts, was mich optisch anspricht. Ich stoße bei der Recherche allenfalls auf Artikel wie den von 9to5Google: It looks like LG, Motorola and Huawei are jumping off the Android Wear train for this year. Von allen anderen kommt aber leider momentan auch nichts Brauchbares.

Vielleicht ist die Zeit für Smartwatches einfach noch nicht reif. Das Koks muss warten.

Veröffentlicht unter Keine Kategorie | Verschlagwortet mit , | 1 Kommentar

How to watch a DVD

Heute ist Mittwoch. Irgendwie passiert das immer wieder.

Mittwochs abends sind oft Veranstaltungen, zu denen ich gehe. Vorletzte Woche Mittwoch z.B. habe ich im Kunst- und Kulturverein Spedition e.V. in Bremen als Zuhörer an einer Vortrags- und Diskussionsveranstaltung teilgenommen, die in der Veranstaltungsreihe city/data/explosion lief. Das Thema war dieses: „Soft Resistance. Die gesellschaftliche Verhandlung der Benutzung von Smartphones, sozialen Medien und dem Konzept digitaler Enthaltsamkeit.“.

Ich erzähle das hier, weil ich eigentlich das folgende erwähnen möchte und bloß einen Einstieg dafür suchte: Die Referentin aus Nürnberg sprach in dem Vortrag u.a. eine Leseempfehlung für das Techniktagebuch aus. Das ist ein Blog auf tumblr. Ich kannte es bereits, hatte aber bisher nur sporadisch darin gelesen und möchte es an dieser Stelle deshalb auch gar nicht zu rezensieren versuchen. Ebensowenig wie jenen anregenden Vortrag von @evemassacre, dessen Videoaufzeichung hoffentlich im Netz rumgeistert (oder wozu macht man sie sonst?).

Ein kleines Beipiel aber doch zum Techniktagebuch: Einer der Einträge letzte Woche Mittwoch hieß Die Überschall-Hotline. Ich zitiere mal frech den kompletten vorletzten Absatz: „Ich bin platt. Sie hat mich also aufgrund der Telefonnummer, von der ich anrufe, identifiziert. In dem Moment, als sie mich begrüßte, hatte sie vermutlich bereits meine Daten vor sich, und die Frage nach meinem Namen war nur ein kurzer Plausibilitätscheck. Damit ist auch klar, warum ich den Namen nicht buchstabieren musste. Und natürlich steht in dem Datensatz alles, was Samantha sonst noch wissen muss: meine Kartennummer, meine Postanschrift, und so weiter.“

Mich erinnert das an ein Erlebnis im Hörsaal 9 im Südgelände der Uni Erlangen. Mitte der 80er Jahre. Es gab eine Sonder-Veranstaltung mit zwei Vorträgen: Der erste Dozent referierte über die Gründe, warum das Layout der Anschlussdosen für die geplanten ISDN-Pilotprojekte nochmal geändert wurde. Der zweite Dozent, Prof. Herbert Kubicek aus Bremen, war angereist, um uns vor den von ISDN ausgehenden Gefahren zu warnen. Service-Hotlines könnten Anrufer aufgrund ihrer Telefonnummer identifizieren und damit automatisiert Daten über die anrufende Person auf den Bildschirm bekommen.

Was ich damit sagen will: Manche Technik-Themen leben lange. (Zwischen diesem Techniktagebuch-Eintrag und meinem Uni-Erlebnis liegen drei Jahrzehnte!) Andere Technik-Themen aber nicht. Das Medium DVD-Video beispielsweise war nur etwa 15 Jahre relevant. Für mich waren das die Jahre 1998-2013. Jedenfalls bis ich, im Jahre 2016, doch noch mal wieder eine DVD abspielen wollte…

So, jetzt kommt’s! Vorgeplänkel beendet. Zum Stichwort DVD wollte ich hin. Es kam nämlich so, dass ich ganz plötzlich geneigt war, den Film „Guardians of the Galaxy“ kurzfristig zwecks Fortbildung studieren zu wollen. Als Abschweifung sei kurz begründet, warum: Es hat damit zu tun, dass ich mich für Verfilmungen von Marvel-Comics aus den 60er und 70er Jahren generell interessiere und sich folgendes begab. Zunächst zur Ausgangssituation:

  • Avengers: Age of Ultron hatte ich mit meiner Tochter im Kino gesehen.
  • Guardians of the Galaxy, der direkt davor erschien, hatte ich noch nicht gesehen. Ich wusste aber, dass er zur „Phase Two“ der MCU-Reihe gehört, die direkt nach Age of Ultron mit Ant-Man endete. (MCU = „Marvel Cinematic Universe“)
  • Ant-Man hatte ich mal bei Maxdome gemietet und angesehen und kannte damit alle anderen MCU-Filme von Phase 1 und 2 — außer eben GOTG (Guardians of the Galaxy).

Es begab sich nun, dass ich plötzlich gelesen hatte, dass die Figur „Star-Lord“ und andere Guardians in den Infinity Wars mitspielen werden, also in Avengers 3 und 4 — dem seit der Verschiebung der Inhumans geplanten Abschluss von „Phase Three“ des MCU. (Die „Phase Three“ wird aktuell eröffnet. Gestern war die Europapremiere von Civil Wars in Berlin.) Das hatte mich sehr überrascht, denn aus ungeklärten Gründen ging ich bisher davon aus, dass sich die Story-Line der Guardians-Reihe in den Rest des MCU-Plots nicht integriert. Wie auch immer ich dazu kam, das anzunehmen.

Und tatsächlich wurde ich auch eines Besseren belehrt: Ich erinnere mich z.B., dass in Age of Ultron gezeigt wurde, wie eine Figur namens Collector sog. Infinity Stones sammelt. Auch in den Guardians war genau das der Fall. Und auch der Bösewicht Thanos war ein Vorgriff auf die kommenden Infinity Wars bei den Avengers. Es ist also tatsächlich ein Film, der doch richtig dazu gehört (und sei es nur für den Gag mit Howard the Duck beim Collector). Vermutlich lag das Missverständnis an mir: Von den Comics „Guardians of the Galaxy“ hatte ich noch nie vorher gehört.

Aber Schluss mit der Abschweife und zurück zur Technik bzw. zum Stichwort DVD. Ich beschreibe jetzt — kommentarlos im Stil des Techniktagebuchs –, was ich getan habe, um mir GOTG anzusehen. Auch hier zunächst zur Ausgangssituation:

  • Von einer Freundin aus Hamburg hatte ich den Film vor langer Zeit mal auf DVD geschenkt bekommen und wollte dieses Geschenk nun zum Einsatz bringen.
  • Ich wollte den Film auf meinem alten großen Tischmonitor sehen und auf meinem neuen Bluetooth-Kopfhörer hören, den ich meiner Tochter abgeluchst hatte.

Die besondere Herausforderung ergab sich hier also durch die Ausgangssituation. Ich wollte 1. explizit eine DVD ansehen und 2. dafür auch nicht einfach unseren alten Tischfernseher nehmen (bei dem man die DVD an der Seite reinschieben kann). Trotz Chromecast-Erweiterung war der nämlich 1. längst eingemottet (man braucht und will heutzutage keine Fernseher mehr) und hätte vermutlich 2. auch kein Bluetooth gekonnt. Ich habe somit auf ein Notebook als Verbindungsstück zwischen DVD, Monitor und Kopfhörer gesetzt:

Problem 1: Mein Notebook hat kein optisches Laufwerk. Den Monitor kann ich da anschließen, aber die DVD kann ich nicht einlegen. Lösung: Das alte Notebook von 2007 auskramen, das ich 2013 außer Betrieb genommen hatte.

Problem 2: Das alte Notebook funktioniert nicht mehr. Nach dem Einschalten muss man eine Stunde warten, bevor sich überhaupt irgendwas tut. Und auch dann tut sich nicht viel. Die Windows-Installation darauf ist definitiv jenseits ihres Lebenszyklusses angekommen. Lösung: Windows neu installieren. (Für Linux bin ich nicht Freak genug.)

Problem 3: Das Windows des alten Notebooks ist noch ein Windows Vista, das man bestimmt nicht neu installieren möchte. U.a. weil es selbst Google Chrome seit Version 50.0 schon gar nicht mehr für Vista gibt. Und abgesehen davon habe ich auch gar keine Installations-CD. Lösung: Ein aktuelles Windows auf einen USB-Stick runterladen und von dort aus installieren. Das Media Creation Tool (MCT) von Microsoft für Windows 10 ist ja genau dafür da.

Problem 4: Mein altes Notebook kann nicht von USB booten. Man kann es auch nicht im BIOS einstellen. Lösung: Dann eben ein ISO-Image von Windows 10 runterladen (geht ja auch mit dem MCT) und eine daraus DVD brennen. Rohlinge habe ich auf dem Dachboden gefunden. (Ich wusste zufällig gerade, wo die sind, weil ich ihn gerade aus und wieder neu einräumen musste, da er gedämmt wurde.)

Problem 5: Ohne optisches Laufwerk ist schlecht brennen, und wenn das alte Notebook nicht mehr tut, geht’s da ja auch nicht. Lösung: Einfach jemanden fragen, der noch brennen kann. Man muss nur unbedingt dazu sagen, dass man bitte nicht die ISO-Datei auf den Rohling gebrannt haben möchte, sondern eine DVD aus der ISO-Datei. (Zum Glück hatte ich noch einen zweiten leeren Rohling.)

Problem 6: Ich habe keine Lizenz. Auch Windows 10 ist lizenzpflichtig, und man kann nicht die Lizenz von dem Windows Vista dafür verwenden. Lösung: Nochmal nachdenken und dann doch eine haben. Und tatsächlich hatte ich noch eine Lizenz für Windows 7 auf einem eingemotteten uralten Tischrechner — und dessen Key ebenfalls auf dem Dachboden gefunden. Dieser wird von Windows 10 akzeptiert. (Zumindest das aktuelle Windows 10 Threshold tut das. Das neue Windows 10 Redstone soll das angeblich nicht mehr tun, und auch Threshold nur noch bis 29. Juli. Aber noch ist ja April.)

Problem 7: Der Grafikchipsatz des alten Notebooks wird von Windows 10 nicht mehr unterstützt. Lösung: Windows 10 trotzdem installieren. Man findet Infos im Netz, wie das geht. Bei Neuinstallation fällt er auf den „Microsoft Basic Display Driver“ (MBDD) zurück.

Problem 8: Der genannte Not-Grafiktreiber MBDD unterstützt den externen Monitor nicht. (Und auch im Notebook-Deckel ist die Auflösung niedrig und falsch.) Lösung: Den alten Vista-Treiber für den Grafikchipsatz manuell aus dem Netz laden und manuell installieren. Wie das geht, beschreibe ich weiter unten, denn das war echt tricky.

Problem 9: Mein altes Notebook kann gar kein Bluetooth. Lösung: Es Bluetooth könnend machen. In einer Box mit Krims und Krams habe ich einen Bluetooth-Dongle für USB gefunden. Reingesteckt und ging. „Connected“ schrie mir der Kopfhörer ins Ohr. (Ich nenne ihn Audrey III, weil er ab und zu gefüttert werden will.)

Problem 10: Windows 10 enthält gar keine Player-Software für DVD-Video mehr. Lösung: Ignorieren. Dies ist defacto kein Problem, denn ich habe DVDs früher immer schon ausschließlich mit dem VLC Media Player abgespielt, weil der — wie auch der o.g. eingemottete Fernseher mit DVD-Einschub — den Regionalcode ignoriert. (Meine DVD-Sammlung ist ein bunter Mix aus aller Welt.) Und der VLC hat in der Classic-Variante auch heute noch Playerfunktionalität für DVD-Video. (In der Universal-App-Variante übrigens nicht mehr.)

Problem 11: Der VLC Media Player steigt komplett aus, wenn man den Kopfhörer berührt. Das muss man aber ständig, weil so die Hörerlautstärke geregelt wird. Lösung: Disziplin bei den Touch-Gesten lernen. Tippen vermeiden. Konsequentes Wischen beim Verändern der Lautstärke anwenden. Klappt nicht immer, aber dann muss man eben jedes Mal aufstehen, die DVD komplett neu starten (inkl. aller Vorspänne und Menüauswahlen) und die Stelle, an der man im Film war, suchen.

Zum Nachmachen hier noch die versprochenen Details zu Problem 8:

(1) Das Treiberpaket runterladen

Im Netz fand ich dazu dies:

Try these steps :
1. open Microsoft Update Catalog in Internet Explorer 6 or newer (will not work on other browser).
2. accept/Yes when prompting to install an add on.
3. type „radeon xpress 200“ in the search box of this microsoft update catalog page.
4. it will show many result, but what you need is the one with version „7.14.10.8333“ because this is a WDDM which will be compatible with Vista but also with 8/8.1/10
5. download the 2.6MB size if your OS is 32 bit, or the 4.6 MB if your OS 64bit.
6. install this driver manually, if you need the guide please google „install windows driver manually“.
good luck.

Zu den folgenden zwei Punkten fand ich hingegen nichts im Netz, konnte es aber durch Ausprobieren herausfinden:

(2) Das Treiberpaket auspacken

Er hat einen Order mit einer CAB-Datei angelegt, d.h. man kann einfach wie folgt vorgehen:
1. Einen neuen Ordner anlegen
2. In den Ordner mit der CAB-Datei reinnavigieren (Doppelklicks), bis man zur *.inf-Datei kommt.
3. Alle Dateien auf der Ebene mit der *.inf-Datei in den unter 1. angelegten neuen Ordner kopieren.

(3) Den Treiber installieren

Im Geräte-Manager den Treiber, der unter „Grafikkarte“ hängt (heißt „Microsoft Basic Display Driver“ oder ähnlich) mit der rechten Maustaste anklicken und „Treibersoftware aktualisieren…“ auswählen. Dann „Auf dem Computer nach Treibersoftware suchen“ wählen und „Aus einer Liste von Gerätetreibern auf dem Computer auswählen“ klicken. Schließlich auf „Datenträger…“ klicken und zur *.inf-Datei in dem unter (2) 1. angelegten Ordner navigieren und die auswählen.

So also guckt man eine DVD!

I Am GrootBild 1: Beweisfoto (Audrey III nicht im Bild)

Veröffentlicht unter Keine Kategorie | Kommentar hinterlassen

Health

Ich habe da mal ganz viele Fragen. In meinem Bekanntenkreis begibt es sich nämlich wie folgt: Die eine hat ein Garmin-Fitnessarmband. Der andere eine Withings-Onlinewaage. Der nächste nutzt eine BikeComputer-App und ein weiterer läuft mit Runtastic. Und ’ne Pebble-Smartwatch hat auch einer. Im Netz stolperte ich bei einem Kontakt zudem über einen Bericht zum erworbenen „Microsoft Band 2“, und in der Presse lese ich gelegentlich über den Begriff „Android Wear“, zuletzt bei einem Produkt von Sony. Aktuell heute erzählt meine Filterbubble von einem „Activity-Tracker“ von Misfit, den man am Hals tragen kann.

Hauptsächlich fällt bei diesen Dingen das Stichwort „Health“, aber es sind nicht nur überall diverse Sensoren dran, sondern es ist auch alles irgendwie „connected“, d.h. irgendwie ist alles auch schon ein bisschen „Internet of Things“. Alles sammelt und verbreitet personenbezogene Aktivitätsdaten oder sogar direkt medizinische Daten. „Wearables“ sind das aktuell hippe Ding, und „Health“ offenbar deren derzeit vorgegebener Haupt-Anwendungsfall. Jenseits der Gesundheits-Plattformen in den Ökosystemen der diversen Geräte-Hersteller gibt es sogar auch noch Ökosystem-übergreifende Datenaustausch-Plattformen mit Namen wie „Microsoft Health“, „Apple HealthKit“ und „Google Fit“. Die großen Datensammler wollen eben auch mitwissen, und möglichst alles.

Untitled
[Apple-Tempel am Kudamm in Berlin am 19. Dezember. Hier kann man die Apple Watch mit einer Armlänge Abstand unter Glas betrachen und dabei ihren Hersteller anbeten.]

Nun sind Geheimdienste, Werbeindustrie und Scoring-Branche ja nicht immer die einzigen Nutznießer der Datensammelei, sondern manchmal auch die betroffenen Personen selber. Zwar helfen auch viele für einen fragwürdigen kurzfristigen Nutzen äußerst aktiv mit, die Datenlage über sie zu verbessern, ohne sich über die langfristigen Auswirkungen davon ausreichend Gedanken zu machen, aber andere haben sich diese Gedanken vielleicht gemacht, und sind einfach nur zu dem Ergebnis gekommen, dass sie sich mit Datensparsamkeit manchmal ausschließlich um den eigenen Nutzen bringen, da die großen Konzerne mit korrelativer Datenanalyse oft genauso weit kommen. Warum dann also die echten eigenen Daten zurückhalten und nichts davon haben.

Weiter eingehen möchte ich auf das Daten(schutzprinzipversagen)thema an dieser Stelle nicht, denn die folgenden zwei Fragen stellen sich unabhängig von der Frage nach den notwendigen Gedanken, die man sich dazu machen sollte: Was für Daten erzeuge ich heute bereits? Und was könnte ich daran ändern und warum? Oder die letztere Frage konkreter formuliert und in zwei aufgeteilt: Wie kann ich den Einsatz der Daten verändern, um den Nutzen für mich zu erhöhen? Und wie kann ich die Qualität der Daten verändern, um den Nutzen für mich zu erhöhen? Dieselben Fragen stellt sich natürlich auch die IT-Industrie aus ihrer eigenen Perspektive, und deshalb ist die Herausforderung die, durch Selberdenken wirklich einen eigenen Nutzen zu identifizieren. Was habe ich davon, und was wird mir nur eingeredet? Und wo kann vielleicht sogar eine Verschlechterung der Datenqualität einen Nutzen für mich generieren?

Um das herausfinden zu können, muss man Lage und Trend der Dinge allerdings überhaupt erstmal ansatzweise verstehen. Wenn mir einer erzählt, er habe einen Fernseher, und ich dann durch Recherche herausfinde, dass man damit in die Ferne sehen kann, dann kann ich den potentiellen Nutzen für mich trotzdem nicht bewerten, weil ich genau weiß, dass ich rein gar nichts verstanden haben kann, ohne Fernsehen selber gelebt und erlebt zu haben. Aber was soll man in Sachen Wearables ausprobieren? Will man heute Fernsehen ausprobieren, muss man auch erstmal auf Youtube oder Vimeo, auf Netflix oder Maxdome und auf die diversen Mediatheken stoßen oder gestoßen werden. Denn Fernsehen ist heute Streaming, auch live. Während zugleich aber andere noch nie davon gehört haben und einen Röhrenfernseher an einem analogen Kabelanschluss betreiben und von einer zeitgenössischen „user experience“ keine Vorstellung haben. Sie würden sich vielleicht auch schütteln, wenn sie sich plötzlich Chromecast-unterstützende Apps zusammensuchen (und den Unterschied zu Miracast verstehen lernen) müssten. Wie also kommt man in die Gedankenwelt der Anwender von connected „Health“-Devices und -Plattformen rein? Was gibt es überhaupt alles?

Genau das meinte ich oben eingangs mit „Ich habe da mal ganz viele Fragen“. Ich habe bestimmt ganz viele — weiß aber noch gar nicht, welche eigentlich. Um mich dem Thema anzunähern schreibe ich am besten erstmal ein paar Antworten auf. Also Dinge, die ich schon weiß oder zu wissen glaube.

Frage 1: Welche Daten werden heute (in welcher Qualität?) schon erhoben und mit welchem Nutzen?

Zum Nutzen:

  • Ein Nutzen für mich ist die Unterstützung von Ausflugsplanung: Ich will spannende Ausflüge erleben (interessante Orte wiederfinden, neue Gegenden entdecken) und habe daher den Android-Standortverlauf (einsehbar über „Meine Zeitachse“ in Google Maps) nicht abgeschaltet. Gelegentlich zeichne ich zusätzlich auch kurze Sessions mit einem GPS-Tracker auf (bisher mit Google My Tracks), nämlich meist dann, wenn ich nicht genau weiß, wo ich bin, und einen interessanten Ort — oder eine Detail-Route — später auf einer Karte ansehen will.
  • Ein Interesse habe ich auch im Bereich gesundheitliches Wohlbefinden: Ich möchte Selbstmotivation für mehr Bewegung und auch für mehr Sport (= Bewegung mit über einen längeren Zeitraum erhöhtem Puls) und habe daher den Android-Aktivitätsverlauf (einsehbar über Google Fit) nicht abgeschaltet. Hier ist der Nutzen bisher sehr gering, zumal Sport ohne Sensoren jenseits des Smartphones nicht sinnvoll erkannt wird. Ich habe ja derzeit keines der eingangs erwähnten Gadgets und Devices.
  • Google Fit zeigt oft auch Ortsinformationen jenseits der „Meine Zeitachse“-Funktion in Google Maps, die manchmal hilfreich sind, wenn man den GPS-Tracker nicht laufen hatte. Und umgekehrt berichten GPS-Tracker auch an Google Fit, so dass mancher Sport (z.B. Fahrradfahren) besser erkannt wird, wenn ein solcher läuft. Kurzum: Dauer-Standortverlauf, Dauer-Aktivitätsverlauf und gelegentliches manuelles GPS-Tracking (gezielt ein- und ausgeschaltet) greifen ineinander und stärken gemeinsam Entdeckertum und Bewegungsdrang.

Zur Qualität:

Zur Bewertung der Datenqualität bei ausgeschaltetem GPS-Tracker (den man nicht immer laufen lassen kann, weil er viel Akku verbraucht) hier ein konkretes Datenbeispiel: Der folgende Screenshot ist mein Standortverlauf vom 29. Dezember (da war ich wieder in Berlin, aber diesmal nicht im Apple-Tempel). Der Standortverlauf glaubt irrtümlich, ich sei von 13:59 bis 20:12 Uhr Auto gefahren und weiß nicht, dass ich in Potsdam war:

Untitled

Geht man auf die Darstellung der Route, so sieht man zwar ein Knäuel in Potsdam, aber das hat keinen Realitätsbezug:

Untitled

Guckt man sich hingegen den Aktivitätsverlauf an, sieht man, dass eine Aktivität „gehen“ von immerhin 90 Minuten in Potsdam erkannt wurde:

Untitled

Hierzu gibt es allerdings keine brauchbare Geoinformation. (Um Akku zu sparen schaltet Google Fit GPS nur dann zu, wenn es am Bewegungsmuster Fahrradfahren erkennt, und auch dann nur gelegentlich, um Entfernungen abzuschätzen.)

Untitled

Einen GPS-Tracker hatte ich in Potsdam nicht benutzt, weil ich den wie gesagt nur einsetze, wenn ich nicht weiß, wo ich bin, und einen genauen Wegabschnitt später auf einer Karte wiederfinden will. Hier daher alternativ ein Beispiel vom 1. Weihnachtstag:

Untitled

Mich interessiert dabei ausschließlich die Karte. Ein Nutzen des typischen Höhe/Geschwindigkeits-Diagramms, das solche Apps bieten, hat sich für mich noch nicht erschlossen. (Man hat in dem Park locker über 40 Meter Höhenunterschied.) Ich gucke da nie drauf, aber so sähe es aus:

Untitled

Das Fazit hier ist jedenfalls, dass man bei ausgeschaltetem GPS-Tracker im Smartphone ohne externe Sensoren bei den unterschiedlichen Verlaufstypen (Standort, Aktivität) jeweils eine in der Qualität deutlich eingeschränkte Datenlage hat. Führt man die Informationen aber zusammen und/oder schaltet man gelegentlich noch einen GPS-Tracker hinzu, werden die Daten deutlich besser. Die besuchte Landschaft hingegen ist ganz unabhängig davon schön:

Untitled
[Blick auf die Lesum am Fuße von Knoops Park]

Frage 2: Wie kann ich den Einsatz der Daten verändern, um den Nutzen für mich zu erhöhen?

Der erste Gedanke, der mir kam: Vielleicht mal ein anderes Auswertungs- und Visualisierungs-Portal probieren. Hier meine (bisher einzige) Probesession mit Runtastic am Tag nach dem Neujahrstag (dem letzten Tag vor dem Schnee) in der Web-Ansicht:

Untitled

Wie man sieht, machen irgendwie derzeit letztendlich alle Tracker und Portale dasselbe, bieten also im Prinzip nur eine Karte und ein Höhe/Geschwindigkeits-Diagramm.

Sehr hilfreich finde ich die Darstellung von Runtastic auch nicht wirklich. Es wird z.B. die Temperatur angezeigt, aber nicht, dass kräftiger Sturm war. So ein Windrichtungs- und Stärken-Verlauf wäre da doch nützlich gewesen. Außerdem ist die Beschriftung der farbigen Streckenabschnitte falsch. Man sieht rechts oben (und im Diagramm unten), dass es 25-43 und nicht 25-125 Meter waren. Also 18 Meter Höhendifferenz und nicht 100. Wenn die überhaupt stimmen, denn Bremen ist wirklich ziemlich flach. Besonders dämlich ist, dass farbige Streckenabschnitte und sogar die Einsicht in die eigenen Rekorde allesamt Premium-Features sind, also im Jahres-Abo 60 Euro kosten. Ich kann für mich somit keinerlei Mehrwert in Runtastic erkennen, auch nicht in der Pro-Version der App (die es immer wieder mal gratis gibt — ich habe meine auch aus einer Promotion-Aktion). Gängige kostenlose Alternativen wie RunKeeper oder Strava habe ich bisher nicht ausprobiert.

Das Fazit hier ist also: Keine Ahnung, ob man aus den bestehenden Daten mehr rausholen kann. Hat jemand Ideen für mich?

Frage 3: Wie kann ich die Qualität der Daten verändern, um den Nutzen für mich zu erhöhen?

Um nochmal bei der Runtastic-Darstellung zu bleiben: Völlig absurd ist hier die Anzeige des Kalorienverbrauchs. Dass ohne Herzfrequenzmessung auch nur halbwegs realistische Werte ermittelt werden können, daran glaube ich nicht.

Apropos Herzfrequenzmessung: U.a. das „Garmin vívosmart HR“-Fitnessband macht — wie auch das Microsoft Band 2 — eine kontinuierliche barometrische Höhenmessung und eine Herzfrequenzmessung mit optischem Handgelenksensor. Und zumindest die Apple Watch (die sich mit Android aber nicht nutzen lässt und sich deshalb als Option disqualifiziert) misst neben der Herzfrequenz auf diese Weise auch die Sauerstoffsättigung dauerhaft. (Wahrscheinlich tun das die anderen Geräte auch, aber das weiß ich nicht.) Möglicher Nutzen: Medizinische Auffälligkeiten entdecken. Aber auch: Sport besser erkennen und somit für die Berechnung des Kalorienverbrauchs mehr als nur Bewegungsdaten heranziehen können.

In der Praxis wird insbesondere das mit der Herzfrequenzmessung sich dann aber doch wieder nur als Theorie herausstellen, weil die optischen Sensoren defacto noch nicht wirklich funktionieren. Runtastic soll man nicht ohne Grund auch eigentlich immer mit Brustgurt laufen. Immerhin dürften die Handgelenk-Bänder mit barometrischer Messung die Höhenmeter auch bei ausgeschaltetem Smartphone-GPS gut erkennen. Das Microsoft Band 2 hat sogar zusätzlich noch ein eigenes GPS. Die Apple Watch hingegen hat weder noch und muss seine „accelerometer/gyroscope“-Sensorkombi immer mit dem iPhone-GPS koppeln.

Und das Fazit hier ist: Ja, mit externen Sensoren kann man genauere Daten mit weniger Akkuverbrauch bekommen. Und es sind gleichzeitig auch noch schicke Armbänder oder Uhren. Aber dafür muss man ein zusätzliches Gerät regelmäßig laden. Der Sinn? Hat ihn jemand entdeckt und kann ihn mir nennen?

Gesamtfazit

Das Ausschließen medizinischer Auffälligkeiten (Pulsaussetzer oder -Hüpfer oder Sauerstoffsättigungslücken) ist mit den derzeitigen Gadgets und Devices schon technisch nicht praktikabel und zuverlässig möglich. Außerdem sind wir da dann hinsichtlich der Datenerhebung sofort doch auch wieder beim Thema „Gedanken über die möglichen langfristigen Auswirkungen machen“. Würde man wirklich solche genauen medizinischen Daten in die Internet-Plattformen husten wollen? (Ich habe diese Frage für mich derzeit mit nein beantwortet.)

Und in Sachen Ausflugsanalyse und Bewegungs-Selbstmotivation habe ich noch keinen potentiellen Nutzen entdeckt, der mir heute noch entgeht. Somit macht es auch keinen Sinn, zur Verbesserung der Daten oder der Akkulaufzeit des Telefons zusätzliche immer wieder aufzuladende Geräte anzuschaffen (auch wenn einige Einfach-Armbänder mit normalen Batterien ein ganzes Jahr halten — aber die sind auch fast nur Selbstzweck und erzeugen jenseits des Schlaf-Trackings keine wirklichen zusätzlichen Daten).

Den Kalorienverbrauch plausibler tracken könnte man vielleicht mit den aufwendigeren Zusatzgeräten. Aber die Aussage im Netz ist meist, dass er auch damit noch nicht plausibel genug ist, um z.B. im Zusammenspiel mit Food-Tracking-Apps eine Diät-Planung machen zu können. Außerdem: Wer würde denn so etwas tun wollen?

Bliebe noch ein potentieller Nutzen, den ich noch überhaupt nicht sehe. Aber vielleicht gibt es für die Anwender gar keinen solchen, und die treibende Kraft der Entwicklung ist allein die Industrie, die bloß an die medizinischen Daten will? In dem Zusammenhang hätte ich dann noch einen Tip: Die Facebook-App zeichnet einen eigenen Standortverlauf auf. Wenn man die App installiert hat und die Funktionen „Freunde in der Nähe“ und „Tipps zu Orten“ beide nicht nutzt, kann man diesen abschalten:

Untitled

Ob Facebook intern dann wirklich weniger Standortverlaufsdaten speichert, ist eine andere Frage.

Auch bei Fotos kann man dem Handy sagen, dass es keine Standortinformationen in die Metadaten von Fotos speichern soll. Dann fehlt einem in den Fotoportalen die entsprechende Zuordnung (z.B. Anzeige in Karten), was man irgendwann bestimmt bereut, oder eben auch gerade nicht. (Ich selber habe es abgeschaltet.) Manchmal ist Datensparsamkeit vielleicht doch eine gute Idee.

Und, wie ich finde, ganz bestimmt bei Daten im Kontext „Health“.

Veröffentlicht unter Keine Kategorie | 2 Kommentare

Fischerhude

Neblig war’s. Damals in Fischerhude. Es war November.

Sonniges Fischerhude

Aber bevor ich die Geschichte von Fischerhude 2012 erzähle, muss ich kurz abschweifen: Durch einen Artikel in der drei Jahre später, also November 2015 erschienenen Ausgabe 26 der Zeitschrift c’t wurde ich nämlich auf die App HyperFocal Pro aufmerksam. Sie berechnet die „hyperfokale Distanz“ zu einer Kameraeinstellung. Ich kannte den Begriff nicht, aber er ist offenbar ganz simpel: Das ist einfach die Entfernung von der Kamera, ab der Motive noch scharf werden, wenn man auf unendlich fokussiert hat. Es ist deshalb nützlich, diesen Wert zu kennen, weil das Unendliche gerade noch scharf bleibt, wenn man gezielt auf die hyperfokale Distanz fokussiert. Die Mindestentfernung scharfer Motive ist dann geringer als bei der Fokussierung auf unendlich und man erhält so die maximal mögliche Schärfentiefe.

Dieses „gerade noch scharf“ ist natürlich subjektiv, weil der „maximal tolerierbare Zerstreuungskreisdurchmesser“ (ein anderer Ausdruck für „gerade noch scharf“) eines nicht in der fokussierten Ebene liegenden Punktes vom Auge abhängig ist, also von der Seh- und Wiedergabeschärfe, der Bildvergrößerung und allerlei anderen Dingen. Die App berechnet daher einen Standardwert aus der Sensorgröße der ausgewählten Kamera und nimmt den für die Berechnung der hyperfokalen Distanz. Der folgende Screenshot zeigt den Zerstreuungskreiswert 0,017879846 mm für den großen Sensor meiner DSLR-Kamera (22,3×14,9 mm² also Crop-Faktor 1,6):

Untitled
[Screenshot mit der Auswahl der Sensorgröße „sensor size“ über das Kameramodell]

Ist die eingesetzte Kamera nicht in der Auswahlliste der App enthalten, kann man auch direkt die Sensormaße eingeben, sowie über einen Parameter der sog. Zeiss-Formel auch noch weiteren Einfluss auf den Zerstreuungskreiswert nehmen. Der folgende Screenshot zeigt die Berechnung des Zerstreuungskreiswerts mit dieser App mit dem voreingestellten Zeiss-Parameter auf dem Standardwert „modern“ für den kleinen Sensor meiner Bridge-Kamera (5,8×4,3 mm² also Crop-Faktor 6,1):

Untitled
[Screenshot mit Berechnung des Zerstreuungskreiswerts „circle of confusion“]

Ich kannte auch den Begriff Zerstreuungskreiswert nicht und kann mit der Zahl als solcher auch nichts anfangen. Aber ein weiterer Nutzen der genannten App ist, dass sie darüber auch den Begriff „Schärfentiefe“ als solchen quantifiziert. Beispiel: Laut der App hat man bei meiner DSLR-Kamera mit Brennweite 50mm und Blendenzahl 1,8 bei 1 Meter Motivabstand eine Schärfentiefe von 2,4 cm. Das ist eine Zahl, die einem alleine nicht viel hilft, die aber oft interessant ist im Verhältnis zur hyperfokalen Distanz. Der folgende Screenshot zeigt die gemeinsame Berechnung der beiden Werte:

Untitled
[Screenshot mit Berechnung der Schärfentiefe „depth of field“ und der „hyperfocal distance“]

Natürlich habe ich diese Werte für das Beispiel nicht zufällig gewählt, sondern weil ich das folgende Foto als Beispielfoto für diese Werte zeigen möchte:

Untitled
[Katzenbild 1]

Im nächsten Katzenbild (ja, es kommt noch eines) ist zum Vergleich eine 2,7fach höhere Brennweite gewählt (135mm), aber mit einem entsprechend um den gleichen Faktor höheren Motivabstand wieder ausgeglichen, so dass die gleiche Bildgröße erreicht wird. Die Schärfentiefe ist dadurch vom Wert her folglich nicht verändert, sondern nur der Bildwinkel (laut der o.g. App von 30,03° auf 11,35°), wodurch weniger Hintergrund zu sehen ist. Der Hintergrund, der noch zu sehen ist, erscheint wegen des geringeren Bildwinkels allerdings dichter, und dadurch wirkt die Schärfentiefe trotzdem geringer, obwohl die cm-Zahl gleich geblieben ist. Der folgende Screenshot zeigt, dass die App auch den Bildwinkel berechnen kann:

Untitled
[Screenshot mit Berechnung des Bildwinkels „angle of view“]

Zugleich ist im Vergleich zum ersten Katzenbild jedoch außerdem 4 Blendenstufen abgeblendet worden (auf Blendenzahl 7,1). Hierdurch wird die Schärfentiefe sehr wohl auch als Wert beeinflusst (dafür wiederum der Bildwinkel nicht). Sie ist laut der App jetzt 9,7 cm, wodurch auch der Hintergrund schärfer wirkt. Dieser Effekt der tatsächlich erhöhten Schärfentiefe durch das Abblenden ist hier stärker als der Effekt der scheinbar gesenkten Schärfentiefe durch den wegen des reduzierten Bildwinkels näher rückenden Hintergrund. Hier also das zweite Katzenbild:

Untitled
[Katzenbild 2]

Man sieht also im zweiten Bild einen weniger breiten und weniger unscharfen, sowie räumlich dichteren Hintergrund als im ersten Bild. Und was im zweiten Bild eigentlich auch ist, man aber nicht sieht, weil sich das Motiv nicht bewegt: eine höhere Bewegungsunschärfe. Denn um die gleiche Bildhelligkeit zu erreichen bedeutet 4 Blendenstufen abblenden ja 2 hoch 4 = 16mal längere Belichtungszeit. Ausgeglichen wurde hier durch eine zumindest 4mal längere Belichtungszeit (1/20s statt 1/80s), sowie eine etwas höhere Signalverstärkung im Sensor (ISO 6400 statt 5000) und vor allen Dingen eine bessere Motivausleuchtung (Licht von vorne).

Aber was hat das nun mit Fischerhude zu tun? Nun gut, ich beende also die Abschweifung und komme jetzt zur eigentlichen Story. Die, in der es nebelig war. 2012 in Fischerhude. Im November.

In diesem Bild ist eine Katze versteckt
[Fischerhude-Katze]

Diese November-Fotos in Fischerhude waren die letzten, die ich mit der o.g. Bridge-Kamera gemacht habe. Bisher einzige Ausnahme: Im Sommer 2015 habe ich nochmal ein Album von Surf-Bildern damit aufgenommen. Hier ein Foto daraus (Brennweite 69,4mm; Blende 5,6; Belichtungszeit 1/1300s; ISO 100):

Untitled
[Surf-Bild]

Die hyperfokale Distanz ist hier laut App 177 Meter. Die Höhe des Sichtfeldes schätze ich auf gut 3 Meter, so dass sich laut App ein Motivabstand von 50 Metern ergibt. Der folgende Screenshot zeigt, dass die App auch das Sichtfeld berechnen kann und sich somit eignet, im Nachhinein einen Motivabstand zu ermitteln (den man dann für die Berechnung der Schärfentiefe braucht):

Untitled
[Screenshot mit Berechnung des Sichtfeldes „field of view“]

Mit dem oben errechneten Standard-Zerstreuungskreiswert ist die Schärfentiefe hier laut App somit 31 Meter. Es war also wichtig, auf den Surfer zu fokussieren. Bei Fokussierung auf den Hintergrund (einfach draufhalten) wäre er unscharf geworden. Auch bei einer Fokussierung auf die hyperfokale Distanz (Hintergrund gerade noch scharf), wäre der Surfer nicht in die Schärfezone gekommen. Dafür waren der Motivabstand bzw. die Blendenzahl zu gering. (Die Blendenzahl war gewollt so niedrig, da ich weder mit dem ISO-Wert rauf, noch mit der Belichtungszeit runter gehen wollte. Ich wollte ein rauschfreies Bild ohne Bewegungsunschärfe.)

Interessant ist noch, welche Werte ich bei der DSLR hier hätte nehmen müssen, um auf die gleiche Schärfentiefe und Bildgröße zu kommen. Die Antwort ist einfach: Die Blendenzahl sollte man mittels der Crop-Faktoren der Sensoren direkt umrechnen können: 5,6 * 6,1/1,6 = 22. Diese Blende kann man bei DSLR-Objektiven tatsächlich einstellen, erhält damit aber nicht mehr bei jedem Objektiv auch noch scharfe Bilder.

Bei der Brennweite wiederum ergibt sich bei sehr großem Motivabstand ebenfalls dieser Umrechnungsfaktor: 69,4mm * 6,1/1,6 = 265mm. Ich hätte hier also ein fettes Tele-Objektiv einsetzen müssen. So eines hätte ich gar nicht gehabt, denn mein 7,5x-„Reisezoom“ geht nur 18-135mm. (Es war in der Tat auch Zoomstufe 15x bei der Bridge, die von 4,6-82,8 mm Brennweite geht, also sehr starkes Tele.)

Kurzum: Um mit der DSLR auch nur annähernd solche Bilder machen zu können, bräuchte es ein Spezialobjektiv, dass dreimal so viel kostet, wie die ganze Bridge-Kamera – und alleine auch schon dreimal so viel wiegt. Der kleine Sensor der Bridge ist hier einfach deutlich überlegen.

Auch die ersten beiden (DSLR-)Katzenbilder oben sind mit verschiedenen Objektiven gemacht, die zudem einige der Einstellungen bereits vorgegeben haben: Bei dem ersten musste die Belichtungszeit so kurz gewählt werden, weil es keinen Bildstabilisator hat, und bei dem anderen musste so weit abgeblendet werden, weil das Bild sonst nicht scharf geworden wäre. Das erste Objektiv kann außerdem nur diese eine Brennweite, bei dem zweiten war der „Reisezoom“ am Anschlag. Ein Zoom-Objektiv bis 135mm, das bei 50mm eine Blendenzahl von 1,8 schafft, gibt es leider nicht für meine Kamera, so dass ich zwei Objektive zum wechseln brauchte.

Aber Fischerhude ist hier das Thema. Was war nun in Fischerhude im Nebel passiert? Was hatte mich veranlasst, direkt danach von der Bridge auf eine DSLR umzusteigen, obwohl mir alle ihre Nachteile bekannt waren? Nachteile und Rückschritte wie

  • dass ich Objektive zwar nun wechseln kann, aber auch muss, weil jedes nur bestimmte Dinge kann
  • dass ich Kompaktheit und Federleichtigkeit verliere und durch einen klobigen und schweren Klotz ersetze
  • dass ich nun keinen elektronischen Sucher mehr habe, sondern nur noch einen optischen, so dass ich das Bild nicht mehr vor der Aufnahme sehen kann
  • dass ich mir statt lautlosem Auslösen nun eine laut klackende Verschlussblende und einen Spiegelschlag eingehandelt habe

Nun: Der Anlass war, dass der kleine Zoom-Hebel der Bridge bei dem Wetter in Fischerhude so schwergängig wurde, dass er mit Handschuhen nicht mehr zu bedienen war, und ich unbedingt einen griffigen Zoomring am Objektiv haben wollte. Das hatte mich so aufgeregt, dass ich schließlich kurzfristig handelte. Die eigentliche Ursache für die Entscheidung in Richtung DSLR war aber, dass ich nach über fünf Jahren mit der Bridge von ihren Fähigkeiten gelangweilt war. Ich wollte mich verschlechtern, um die Herausforderungen zu erhöhen bzw. zu verschieben. Ich war daher bewusst auch ins Einsteiger-Segment bei den DSLR gegangen und hatte eine „Canon EOS 650D“ gewählt. Und auch das ausgesuchte Kit-Objektiv „Canon EF-S 18-135mm f/3.5-5.6 IS STM“ war gewollt nicht gut. Im Weitwinkel war alles total verzerrt und im Tele extrem unscharf, wenn man nicht manuell stark abblendete. Der Zoom war auch viel schwächer als bei der Bridge (7,5x statt 18x), und auch lichtschwächer in dem Sinne, dass die Offenblenden höhere Blendenzahlen hatten, also für die gleiche Belichtungszeit höhere ISO-Werte brauchten. Ich wollte sehen, wie all diese Einschränkungen meine Fotografie veränderten.

Und das Fazit: Im Artikel Nichts bereut hier in diesem Blog schrieb ich schon vor 28 Monaten den Schlusssatz „Hiermit möchte ich kundtun, dass ich es nicht bereut habe. Das Fotografieren macht damit einfach mehr Spaß!“. (Dort sind auch aussagekräftige Vergleichsbilder von Bridge und DSLR/Kit-Objektiv zu den Themen Telereichweite und Weitwinkelverzerrung zu sehen.) Dies gilt auch heute noch. Abgesehen davon gab es auch neue Möglichkeiten, insbesondere im Bereich kurzer Belichtungszeiten bei schlechtem Licht. Hier z.B. das Titelbild aus dem Album Weihnachtsmarkt Bergedorf vom Dezember 2012. Die kurze Belichtungszeit von 1/80s (dank ISO 12800!) wäre mit der Bridge hier völlig unmöglich zu erreichen gewesen:

Untitled
[Feuer-Bild]

Knapp drei Jahre später, also gerade jetzt erst in 2015, hatte ich dieses Erfolgsrezept der technischen Beschränkung sogar noch einmal wiederholt und mich mit dem Zweitobjektiv „Canon EF 50mm f/1.8 STM“ nochmal gewollt weiter verschlechtert: Kein Bildstabilisator mehr, und ganz und gar kein Zoom. Und auch nicht mehr so ein schneller lautloser Fokus wie beim Kit-Objektiv. Dafür aber die Option auf noch geringere Schärfentiefen und damit noch kürzere Belichtungszeiten. Und somit die Möglichkeit, Bilder zu machen, die noch weiter weg sind von den Fähigkeiten der Bridge. (Das erste Katzenbild oben ist so ein Beispiel.) Was soll ich sagen: Ich bin begeistert.

Fischerhude.

Dort fing es an, richtig Fotografie zu werden.

Veröffentlicht unter Keine Kategorie | Kommentar hinterlassen