Tag Archive for: iPhone

Drafts 4 – der flexible Notizblock für iOS

17 Jul 2016
17. Juli 2016

Unsere elektronischen Helfer, z.B. iPhone oder iPad, haben heute in vielen Fällen den klassischen Notizblock verdrängt. Ich habe zwar immer noch ein Moleskine®-Mininotizbuch in meiner Hemdtasche, greife aber natürlich selber gerne zu iOS-Geräten. Die Möglichkeit, einen Gedanken oder eine Idee schnell aufschreiben oder diktieren zu können, ist wichtiger Bestandteil meines GTD®-Systems (hier ist ein ausführlicher Artikel dazu). Doch welche App nimmt man dazu am besten? Naheliegend wäre zunächst mal die eingebaute Notiz-App. Das würde auch funktionieren, dennoch möchte ich heute „Drafts“ von Agile Tortoise (AppStore-Link) empfehlen (ich habe zuletzt vor rund vier Jahren Artikel dazu geschrieben), da sie insbesondere für die Ersterfassung eine ganze Reihe Vorteile aufweist:

  • Sie startet bei jedem Aufrufen der App mit einem neuen leeren Blatt. Somit kann man quasi verzögerungsfrei sofort seine Notiz auf das virtuelle Papier bringen. Wenn man die App nur kurz verlässt, gelangt man natürlich zur alten Notiz zurück, der Zeitraum, ab wann ein neues Dokument begonnen wird, ist einstellbar.
  • Man kann auf ältere Versionen eines Dokuments zurückgreifen.
  • Drafts unterstützt TextExpander. Dadurch stehen alle meine Kürzel vom Mac direkt in der App zur Verfügung.
  • Drafts unterstützt das Schreiben in Markdown, einer einfachen, aber effektiven Textauszeichnungssprache. Neben einer Vorschau-Möglichkeit, wird auch eine konfigurierbare zusätzliche Tastaturzeile geboten.
  • Es gibt nahezu unbegrenzte Möglichkeiten, den eingegebenen Text weiterzuverarbeiten. Hier liegt die wesentliche Stärke von Drafts, die weit über das hinausgeht, was andere Programme bieten. Nicht immer weiß ich schon beim Erstellen der Notiz, was daraus mal wird, vielleicht ein Tweet, ein Facebook-Posting, eine E-Mail, eine iMessage, ein Kalendereintrag, ein Aufgabe oder eine richtige Notiz, die dann später in der Notiz-App endgelagert wird. Es ist aber auch egal, ich bin erstmal nicht festgelegt, sondern kann einfach losschreiben.

Im restlichen Artikel möchte ich den letztgenannten Punkt vertiefen, denn mit den richtigen Aktionen (so heißen die Weiterverarbeitungsmöglichkeiten in der App) wird Drafts zu einem sehr mächtigen Werkzeug.

Damit man bei seinen konfigurierten Aktionen nicht den Überblick verliert, kann man sie in Gruppen zusammenfassen. Ich habe mir die Gruppen „Main“, „Share“, „MD“ (für Markdown) und „Misc.“ (für Verschiedenes) eingerichtet. Alle häufig verwendeten Aktionen befinden sich der Einfachheit halber in „Main“. Zur besseren Auffindbarkeit kann jede Aktion mit einem Icon (aus einer umfangreichen Bibliothek) und einer Iconfarbe versehen werden.

Drafts Aktionsmenü

Aktionsmenü

Drafts Aktionseditor

Aktionseditor

Die Aktion selbst besteht aus ein oder mehren Schritten, die man im eingebauten Aktionseditor festlegen kann. Was alles als Schritt definiert werden kann, ist beachtlich. Hier nur eine kleine Auswahl:

  • Ersetzen oder erweitern (voranstellen oder anhängen) der Zwischenablage
  • Versenden einer E-Mail und zwar auch im Hintergrund, ohne dass erst die Entwurfsansicht aufgeht
  • Versenden einer iMessage oder SMS
  • Erstellen einer Erinnerung in iOS
  • Erstellen eines Kalendereintrags
  • Erstellen einer Notiz in Evernote (bzw. an eine bestehende Notiz anhängen)
  • Öffnen des iOS-Share-Sheets
  • Weitergabe als Datei mit dem Öffnen-in-Dialog
  • Auf Twitter, Facebook oder Google+ (gibt’s das noch?) posten
  • Neue Datei in Dropbrox, Google Drive oder iCloud erstellen, bzw. an eine Textdatei anhängen (vorne oder hinten)
  • Eine URL aufrufen
  • Eine bestehende Aktion aufrufen

Beim Konfigurieren des jeweiligen Schritts kann vieles im Detail festgelegt werden, z.B. Betreff und Empfänger der E-Mail, Empfänger und Text der iMessage usw. Dazu stehen mächtige Platzhalter zur Verfügung wie z.B.:

  • [[draft]] = der ganze eingegebene Text der Notiz
  • [[title]] = nur die erste Zeile des eingegebenen Textes
  • [[body]] = der ganze Text außer die erste Zeile
  • [[line|n]] = die n. Zeile des eingebenen Textes
  • [[clipboard]] = Inhalt der Zwischenablage

Somit können die Daten für den jeweiligen Schritt in flexibler Weise dem eingebenen Text oder der Zwischenablage entnommen werden. Legt man sich etwa eine E-Mail-Aktion an, so kann in der ersten Zeile der Betreff und in den übrigen Zeilen der eigentliche Inhalt der Mail stehen.

Sehr mächtig ist der URL-Aufrufschritt. Und hier wird es auch ein wenig „nerdig“, denn viele iOS-Apps lassen sich über einen URL-Aufruf starten. Aber damit nicht genug, es lassen sich in vielen Fällen auch noch Parameter anhängen und z.B. Drafts-Platzhaltern befüllen. Ein Beispiel zur Verdeutlichung. Man kann mit Drafts Aufgaben in OmniFocus anlegen, indem man in einer einschrittigen Aktion folgende URL aufruft:

Drafts URL-Aktion

omnifocus:///paste?content=[[draft]]&x-success=drafts4://

Diese URL öffnet OmniFocus, legt eine neue Aufgabe mit dem ganzen eingebenen Text als Titel an und springt wieder zurück nach Drafts (so dass man z.B. gleich die nächste Aufgabe eingeben könnte).

Wem das zu nerdig ist, kann auf das umfangreiche eingebaute Aktionsverzeichnis zurückgreifen, zu dem auch Drafts-Benutzer ihre selbstgeschriebenen Aktionen beisteuern können. Es ist daher entsprechend umfangreich.

Drafts Aktionsverzeichnis

Ein weiteres Beispiel für eine Aktion wäre eine iMessage oder eine SMS an eine ganze Gruppe vordefinierter Personen. Einfach die Personen in dem betreffenden Schritt einfügen, dann reicht es künftig den Text zu schreiben und diese Aktion zu starten, um alle zu informieren. Die Möglichkeiten zum E-Mail-Versand im Hintergrund nutze ich z.B. für Trello, einer Projektmanagement-Software. Somit kann ich eine neue Idee einfach in Drafts hineinschreiben, die entsprechende Aktion starten und schon landet das Ganze in meiner Trello-Ideenliste, da solche Trello-Listen individuelle E-Mail-Adressen haben, mit denen man sie per Mail erweitern kann.

Die Aktionen, die Konfiguration und auch die Notizen können übrigens über iCloud synchronisiert werden, was sehr sinnvoll ist, wenn man sowohl ein iPhone als auch ein iPad nutzt. Es gibt sogar eine App für die Apple Watch, mit der man schnell mal eine neue Notiz diktieren kann. Drafts erhält regelmäßig Updates und Funktionen neuer iOS-Versionen sind bisher immer schnell in das Programm eingeflossen. Wünschenswert wäre eine Mac-Version.

Alles in allem also eine rundum nützliche App, die sich einen Platz auf dem ersten Homescreen meiner Geräte gesichert hat.

Finder Info

14 Nov 2015
14. November 2015

Schlimm genug, wenn man sein iPhone mal verlieren sollte. Noch schlimmer wäre es jedoch, wenn ein ehrlicher Finder keine Möglichkeit hätte herauszufinden, wem das verlorene Gerät gehört. Die Chancen es überhaupt zurückzubekommen, sind mit Einführung des „Activation Lock“ auf jeden Fall gestiegen, da sich bei aktiviertem Lock, was ich jedem empfehle, mit dem iPhone nicht mehr allzu viel anfangen läßt. Apple selbst bietet „Find my iPhone“ und den mit iOS 8 eingeführten Notfallpass als Hilfsmittel an. Letzterer ist allerdings nicht wirklich dazu gedacht und auch nicht ganz so leicht aufzurufen (Bildschirm aktivieren > Entsperren wischen > Notfall klicken > Notfallpass klicken). Und um mit „Find my iPhone“ eine Nachricht an den Finder zu schicken, braucht man erstmal ein anderes Gerät mit Internet. Früher konnte man für solche Fälle seine Kontaktdaten auf dem Wallpaper des Sperrbildschirms platzieren, was man leicht mit der Hilfe von entsprechenden Apps erledigen kann. Mittlerweile verschwimmt allerdings das Hintergrundbild sobald eine Push-Nachricht auf dem Bildschirm erscheint. Somit ist nicht mehr sichergestellt, dass ein möglicher Finder einen ungetrübten Blick auf das Wallpaper hat.

Es ist daher eine gute Idee, die Besitzerinformation auf dem Heute-Bildschirm unterzubringen. Dieser ist von überall – auch vom Sperrbildschirm, wenn man dies in den Einstellungen erlaubt – durch Wischen nach unten erreichbar. Für diesen Zweck habe ich die App „Finder Info“ (kostenlos, App-Store-Link) gefunden. Dort trägt man einfach in die verschiedenen Felder seine entsprechenden Infos ein (bei der Telefonnummer natürlich nicht die des iPhones nehmen!):

Finder info 1

Nun kann das fertige Widget bereits auf dem Heute-Bildschirm platziert werden. Dazu einfach von ganz oben nach unten wischen, an das untere Ende der Liste scrollen und auf „Bearbeiten“ tippen. Dann das Widget „Message to finder“ durch das grüne Plus-Symbol hinzufügen und am besten so weit nach oben schieben, dass es ohne zu scrollen zu sehen ist. Fertig! Standardmäßig zeigt das Widget nur den Namen des Besitzers an, wenn man es antippt erscheinen alle Infos:

Finder info 2

Finder info 3

Erste Erfahrungen mit HomeKit

01 Nov 2015
1. November 2015

Da mein neuer Apple TV noch auf sich warten läßt, möchte ich die Gelegenheit nutzen und über meine erste Erfahrungen mit HomeKit berichten. Geräte, die nach Apples HomeKit-Standard zertifiziert sind (erkennbar an einem HomeKit-Logo auf der Verpackung, hier eine von Apple gepflegte Liste der Geräte), lassen sich mit iOS-Geräten – einschließlich der Apple Watch – steuern bzw. abfragen. Was viele verwirrt ist die Tatsache, dass Apple – beispielsweise im Gegensatz zum HealthKit – keine Frontend-App mitliefert, sondern dies den Herstellern der Geräte und Drittanbietern überlässt. Allerdings gibt es eine zentrale HomeKit-Datenbank auf dem jeweiligen Gerät, aus der sich diese Apps bedienen und in die sie ihre Daten auch hineinschreiben, so dass alle Anwendungen die gleiche Sicht auf unsere jeweilige Wohnung haben. Ein systemweites Frontend gibt es aber dennoch – und das ist mein geliebtes Siri. Mit Hilfe der Sprachsteuerung lassen sich Lampen einschalten oder dimmen, Steckdosen aktivieren, Sensoren abfragen und einiges mehr. Dies funktioniert übrigens dann mit allen iOS-Geräten, iPhone, iPad und der Apple Watch. Dazu gleich mehr.

An HomeKit-fähigen Geräten habe ich derzeit

  • Philips Hue
  • Elgato eve energy
  • Elgato eve room

Das Beleuchtungssystem „Hue“ setze ich schon länger ein und habe bereits darüber berichtet. Damit die HomeKit-Unterstützung funktioniert, musste eine neue Bridge her, weil der HomeKit-Standard ziemlich genau vorschreibt, welche Funkstandards und Verschlüsselungen (bei der Sicherheit sind Apples Anforderungen wohl recht hoch) unterstützt werden müssen. Die neue Bridge kann einzeln ohne Lampen erworben werden. Zunächst einmal muss das neue HomeKit-Gerät ins System integriert werden. Dazu liegt der Packung ein Kärtchen mit einem Nummerncode bei, der mit der jeweiligen HomeKit-fähigen App abfotografiert wird. Diese Vorgehensweise ist übrigens herstellerübergreifend immer gleich. Entsprechend hat Philips die Hue-App erweitert, um alle neuen Funktionen zu unterstützen, außerdem gibt es eine eingebaute Prozedur, die alle Daten von der alten auf die neue Bridge überträgt (dazu müssen kurzzeitig beide Bridges ans Ethernet angeschlossen werden), was in meinem Fall problemlos funktioniert hat.

In der Hue-App kann man nun unter Einstellungen > Siri-Sprachsteuerung festlegen, welche Lampen und Szenen man mit Siri steuern möchte. Anschließend stehen eine ganze Reihe neuer Siri-Befehle zur Verfügung (Schrägstrich bedeutet alternativer Befehl, bei eckigen Klammern muss etwas eingesetzt werden):

„Licht aus“ / „Alle Lampen ausschalten“

„Licht an“ / „Alle Lampen einschalten“

„Schalte [Name der Lampe] aus“

„Schalte [Name der Lampe] an“

„Schalte [Name der Lampe] auf [Farbe]“

„Mach die Lampe [Name der Lampe] heller“

„Mach die Lampe [Name der Lampe] dunkler

„Setze die Helligkeit der Lampe [Name der Lampe] auf [Wert] Prozent“

„Ist die Lampe [Name der Lampe] eingeschaltet?“

„Aktiviere [Name der Szene]“

Eine Szene ist in Hue eine beliebige Zusammenstellung von Lampen, Farben und Helligkeiten. D.h., ich kann mit einem einzigen kurzen Sprachbefehl ein komplettes Licht-Setup in meiner Wohnung aktivieren. Ich habe zum Beispiel eine Szene „Stimmung“ in der ähnlich wie auf dem Titelbild alle Räume in verschiedene Farben gehüllt werden und somit eine für mich entspannende und stimmungsvolle Lichtatmosphäre entsteht. Alles was ich dazu tun muss ist, meine Apple Watch so zu heben, dass sie aktiviert wird und dann reicht der Satz „Hey Siri, aktiviere Stimmung“. Magisch.

Hue 2

Hue 1

HomeKit Szene

Leider kann die Hue-App die Lampen nicht bestimmten Räumen zuordnen, was der HomeKit-Standard explizit vorsieht. Dies ist jedoch mit anderen Apps möglich, dazu gleich mehr.

Elgato eve energy ist ein kleine Steckdose, die in eine Steckdose kommt und diese damit HomeKit-fähig macht. Nach entsprechender Einrichtung mit der Eve-App stehen folgende neue Siri-Befehle zur Verfügung (der Name der Steckdose wird in der App festgelegt):

„[Name der Steckdose] anschalten“

„[Name der Steckdose] ausschalten“

„Ist [Name der Steckdose] eingeschaltet?“

Natürlich kann die Steckdose auch mit der Eve-App ein- oder ausgeschaltet werden. Das Besondere an „eve energy“ ist, dass zusätzlich ein Stromzähler eingebaut ist. D.h., es kann in der Eve-App eingesehen, wieviel Strom das eingesteckte Gerät insgesamt oder an einem bestimmten Tag verbraucht hat. Sehr praktisch.

eve-energy

Zusätzlich kann man mit der Eve-App seine Geräte – und das geht auch mit Hue-Lampen (!) – Räumen zuweisen. Dadurch entstehen neue, sehr praktische Befehle:

„Schalte alles im [Name des Zimmers] ein“

„Schalte die Lampen im [Name des Zimmers] an“

„Schalte die Lampen im [Name des Zimmers] aus“

„Mach das Licht im [Name des Zimmers] dunkler“

Und so weiter (betroffen sind dann immer alle Lampen und/oder Geräte, die einem Raum zugeordnet sind). Das erinnert schon irgendwie an Captain Picard in seiner Kabine ;-).

Schließlich habe ich noch das „eve room“, ein Gerät zur Messung von Temperatur, Luftfeuchtigkeit und Luftqualität in Innenräumen (außerdem wird auch ein Außenmodul angeboten). Zusätzlich zur Protokollierung dieser Werte in der Eve-App, was an sich nichts neues ist (macht z.B. Netatmo auch), können Temperatur und Luftfeuchtigkeit auch mit Siri abgefragt werden:

„Wie warm ist es im [Name des Zimmers]?“

„Wie ist die Luftfeuchtigkeit im [Name des Zimmers]?“

eve room

eve room

Eve-Room wird mit Batterien betrieben und ist nicht sehr groß

Eine sehr gute HomeKit-App, die so ziemlich jedes HomeKit-Feature unterstützt und auch eine Watch-App hat, ist übrigens „Home“ (App-Store-Link), welche allerdings das iTunes-Budget mit 15 Euro belastet.

Insgesamt ist eine Wohnung, die aufs Wort gehorcht, schon recht beeindruckend und fühlt sich auf jeden Fall ein wenig nach einem Leben in der Zukunft an.

Fremdsprachen lernen mit Apps

26 Jul 2015
26. Juli 2015

Da ich häufiger bei unserem nördlichen Nachbarn unterwegs bin (ist ja nur eine kurze Fährüberfahrt entfernt von hier), lerne ich derzeit ein wenig Dänisch. Leider kein leichtes Unterfangen, knapp die Hälfte der Wörter stimmen zwar mit der deutschen Sprache überein (was das Lesen von Texten vereinfacht, beim Sprechen muss man natürlich dennoch wissen, welche Wörter gleich sind), jedoch weicht die Aussprache mehr oder weniger von der Schriftsprache ab, zumal nach meiner Erfahrung im Alltag recht schnell und teilweise auch undeutlich gesprochen wird. Dafür lernt man im Gegenzug quasi drei Sprachen in einer, denn die skandinavischen Sprachen haben eine Wortübereinstimmung zwischen 90 und 95 Prozent und werden gegenseitig meist ohne größere Probleme verstanden.

Wie man es bei mir nicht anders erwarten kann, unterstützen mich meine Geräte wie iPhone und iPad kräftig beim Lernen und ich möchte heute einfach mal meine Erfahrungen weitergeben und die Apps empfehlen, die mir weitergeholfen haben. Ich habe dabei nicht recherchiert, welche der Apps plattformübergreifend sind, dies dürfte aber zumindest für einige der Fall sein.

Mein wichtigster Baustein ist ein App-gestützter Sprachkurs. Denn nur so ist, meiner Meinung nach, ein systematisches Erlernen in kleinen zusammenhängenden und aufeinander aufbauenden Lektionen möglich. Hierzu setze ich Babbel ein (App-Store-Link), eine App, die eine ganze Reihe von Sprachen unterstützt, u.a. eben auch Dänisch. Für die Nutzung entstehen monatliche Kosten, die um so niedriger sind, je größer man den Abo-Bezahlzeitraum wählt. Ich zahle beispielsweise 33,30 Euro für 6 Monate, was einem Monatspreis von 5,55 Euro entspricht. Das ist meiner Meinung nach nicht zu viel, denn zum einen ist es ein professioneller Kurs, zum anderen erwirbt man natürlich – sofern man das Ganze nicht nur oberflächlich angeht – eine zusätzliche Fertigkeit, die sich zukünftig bezahlt machen kann. Die Sprachkurse sind auch nicht statisch, sondern es kommen regelmäßig neue Lektionen hinzu. Es dürfte schwierig sein, ein vergleichbares kostenloses Angebot zu finden, zumindest bei etwas exotischeren Sprachen wie eben Dänisch.

Babbel-Kurse

Eine Babbel-Lektion (für Dänisch gibt es über 300), die meist aus 5-10 Unterabschnitten besteht, hat mehrere Komponenten. Zunächst werden die neuen Wörter bzw. Redewendungen dieser Lektion (meist nicht mehr als 10) in Deutsch und der jeweiligen Fremdsprache angezeigt und in der Fremdsprache vorgelesen. Erlaubt man der App den Mikrofonzugriff, kann das Wort nachgesprochen werden und es wird angezeigt, ob die Aussprache korrekt war oder nicht.

Babbel 1

Anschließend werden diese wiederholt und man muss die richtige Übersetzung wählen.

Babbel 2

Nun werden einzelne Begriffe nochmal vorgelesen und man muss diese selber schreiben. Dazu werden entweder die enthaltenen Buchstaben angezeigt oder es wird einfach nur eine Tastatur eingeblendet, was natürlich schwieriger ist.

Babbel 3

Babbel 4

Weiterhin gibt es immer mal wieder Erläuterungs- und Grammatikseiten, auf denen das Gelernte vertieft wird.

Babbel 5

Weitere Komponenten sind das Zuordnen von Wörtern in Gruppen (durch Verschieben auf dem Bildschirm) oder das Vervollständigen von Dialogen, die gängige Alltagssituationen abdecken. Eine Lektion kann natürlich beliebig oft wiederholt werden. Die gelernten Wörter und Redewendungen kommen zusätzlich in eine persönliche Vokabelliste, die man in regelmäßigen Abständen mit Hilfe eines Wiederhol-Managers, der sich auch merkt, mit welchen Wörtern man Schwierigkeiten hat, abgearbeitet werden.

Babbel 6

Alles in allem bleibt nach meiner Erfahrung mit Hilfe der App eine ganze Menge hängen und die Sprachkenntnisse verbessern sich Schritt für Schritt. Der zweite wichtige Baustein meines Lernsystems ist ein Vokabel-Manager. Zwar hat Babbel ja schon den eben erwähnten Wiederhol-Manager, dieser lässt sich jedoch nur übers Web mit eigenen Wörtern erweitern und geht vermutlich auch verloren, sollte man jemals sein Abo beenden. Daher bevorzuge ich hierfür eine separate App und habe mich für iVocabulary entschieden. Diese kostenpflichtige App gibt es für Mac, iPhone und iPad, wobei die Daten über alle Geräte synchronisiert werden (iCloud oder Dropbox, Dropbox funktioniert nach meiner Erfahrung besser) und der Funktionsumfang ähnlich ist. Das Eintragen größerer Vokabelmengen ist natürlich am Mac bequemer.

Ivoc

In iVocabulary trage ich alle Wörter, die ich in Babbel lerne, sowie alle weiteren Vokabeln, die ich aufschnappe – z.B. auf Dänemark-Reisen, Webseiten, Prospekten usw. – ein. Zu jeder Vokabel kann auch ein Bild (diese Funktion nutze ich nicht, ist aber sinnvoll, für alle, die mehr visuell lernen), ein Kommentar, die Aussprache (als Aufnahme) und ein Etikett (nutze ich für die Wortart Substantiv, Verb, usw.) gespeichert werden. Mit Hilfe verschiedener Abfrage-Modi können die Wörter dann gelernt werden, wobei zu jeder Vokabel der letzte Abfragezeitpunkt und die individuelle Schwierigkeit (wie oft passieren Fehler bei diesem Wort) gespeichert wird. Insgesamt ist iVocabulary sehr umfangreich und ich habe noch nicht alle Funktionen genutzt.

Es kommt häufiger vor, dass ich ein neues Wort lese und einfach nur wissen möchte, wie es ausgesprochen wird. Hierfür hat sich die kostenlose App Forvo (App-Store-Link) bewährt. Forvo ist eine Sprach-Community, an der man teilnehmen kann, indem man dort einspricht, wie Wörter in der eigenen Muttersprache ausgesprochen werden. Der Umfang ist recht hoch, ich stoße recht selten auf ein Wort, welches nicht enthalten ist.

Forvo

Natürlich wäre diese Zusammenstellung ohne ein Wörterbuch nicht vollständig, denn irgendwo muss man bisher völlig unbekannte Wörter ja nachschlagen. Ich nutze dazu die iPhone-App von dict.cc, dict.cc+ (App-Store-Link, Offline-Benutzung möglich, alternativ gibt es auch eine kostenlose Version mit Werbung).

Dictcc

Diese vier Apps decken den Grundbedarf IMHO ganz gut ab, gelegentlich nutze ich noch weitere Dienste wie Google-Translate, aber mit den vorgestellten Produkten kommt man schon recht weit. Bonus-Tipp: Insbesondere fürs Vokabellernen ist es nützlich, auf dem iPhone oder iPad die Tastatur der jeweiligen Sprache zu installieren (iOS: Einstellungen > Allgemein > Tastatur > Tastaturen). In diesem Sinne, viel Spaß beim Lernen!

Fotos

17 Mai 2015
17. Mai 2015

Meine Foto-Workflows waren schon immer großen Veränderungen unterworfen, meist weil ein Dienst, den ich genutzt habe, eingestellt wurde oder sich verschlechtert hat oder es plötzlich etwas viel besseres gab. Zuerst hatte ich meine Aufnahmen in der MobileMe-Fotogalerie, dann – als diese eingestellt wurde – bei Flickr, dann – nach Design- und Performance-Verschlechterungen bei Ipernity und zuletzt zusätzlich noch als Backup bei Picturelife. Softwareseitig habe ich zuerst iPhoto und dann Aperture eingesetzt, um die Bilder zu kategorisieren, zu verschlagworten, nachzubearbeiten, usw. Dieses Frühjahr gab es nun wieder einen großen Umbruch, Apple hat die App „Fotos“, die es unter iOS schon länger gibt, auch für den Mac veröffentlicht. Gleichzeitig bieten sie die Möglichkeit, alle Bilder aus „Fotos“, egal ob es sie vom Mac oder iOS kommen, in die iCloud hochzuladen und diese dort aufzubewahren und zwischen den Geräten zu synchronisieren. Dafür werden allerdings iPhoto und Aperture nicht mehr weiterentwickelt. Die Alternativen sind also, entweder – zumindest mittelfristig, eine ganze Weile könnte man sicher noch mit den alten Programmen weiterarbeiten – auf das neue System umzusteigen oder sich eine andere Lösung zu suchen.

Ehrlich gesagt, war ich bei der Ankündigung von Fotos froh, dass dieser Wechsel kam, auch wenn „Fotos“ längst nicht alle Funktionen von Aperture oder Lightroom hat. Denn das alte System stammt aus einer Zeit, bei der man idealerweise nur einen Computer hat, auf dem die Bilder importiert, bearbeitet und veröffentlicht werden. Schon die zunehmende Anzahl von Fotos, die auf dem iPhone entstanden sind, hat mir Probleme gemacht, denn es war mir oft genug zu viel Arbeit (bzw. die Zeit war einfach nicht da), diese nach Aperture reinzuholen und dort äquivalent zu den DLSR-Fotos weiterzuverarbeiten. Noch schlimmer wurde es, als ein zweiter Mac dazukam, denn zwei Aperture-Installationen synchron zu halten, war eine ziemliche Bastelarbeit inklusive Terminal-Skripten. Das lief dann darauf hinaus, dass Fotoarbeiten nur noch an einem Mac gemacht wurden, obwohl ich bei der Nutzung des anderen vielleicht gerade dafür Zeit gehabt hätte. Und dann ist da noch das iPad, das ideale Gerät eigentlich, um in Ruhe auf dem Sofa mal ein paar Bilder auszusortieren. Oder einfach die Fotos mal anderen zu zeigen. Aber dazu müssen sie erstmal auf das iPad kommen.

Die eleganteste Lösung für diese Probleme ist eine zentrale Ablage in der Cloud und nicht auf einem einzelnen Gerät. Und wer kann sowas besser in alle Geräte integrieren als der Hersteller? Also habe ich mich gleich in der ersten Woche, als die Mac-App erschienen ist, an die Migration gemacht. Meine einzige Sorge war eigentlich, dass Apple den Cloud-Teil nicht richtig hinbekommt, denn dies ist traditionell nicht eine der Stärken des Unternehmens aus Cupertino. Aber aus der langen Beta-Phase, die ich intensiv verfolgt hatte, wusste ich, dass es keine technischen Probleme gibt. Blieb nur noch die Sorge, dass das System eventuell zusammenbricht, wenn sich bei Veröffentlichung Millionen von Kunden darauf stürzen, aber auch diese war unbegründet.

Fotos 1

Fotos für Mac

Nun liegen meine rund 7000 Fotos alle in der iCloud, es hat etwa 1-2 Tage gedauert, bis alle vier Geräte wirklich den gleichen Stand hatten. Die Aperture-Library wurde problemlos in „Fotos“ übernommen, inklusive aller Alben, intelligenten Alben und Ereignisse, die in Fotos-Alben umgewandelt wurden. Ich hatte vor dem Import die Struktur in Aperture etwas vereinfacht, was aber wohl gar nicht notwendig gewesen wäre. Pro Gerät kann man entscheiden, ob dort die Originale abgelegt werden sollen, oder – um Platz zu sparen – nur eine verkleinerte Version. Ich habe auf beiden Macs die Originale, so dass es nun inkl. iCloud jeweils drei Kopien eines Fotos gibt (und zusätzlich noch meine TimeMachine- und SuperDuper-Backups). Das ist – insbesondere was die iPhone-Fotos betrifft – wesentlich besser als vorher. Meinen Picturelife-Account habe ich daher nicht verlängert.

Fotos 2

Fotos für iPad

Nach einigen Wochen der Nutzung kann ich festhalten, dass dieses neue System sehr gut funktioniert. Meine Fotosammlung war noch nie in einem so guten Zustand wie jetzt. Es ist von unschätzbaren Wert, auf jedem Gerät die gleiche Ansicht auf die gesamte Fotosammlung zu haben, selbst auf dem iPhone habe ich jedes Foto dabei und kann ein ganz bestimmtes Bild mit Hilfe der Suchfunktionen in kürzester Zeit hervorzaubern. Es wird wirklich fast alles synchronisiert, bis auf die Druckprojekte wie Grußkarten oder Kalender und die intelligenten Alben auf iOS. D.h.,ich kann z.B. auf dem iPad nach Stichwörten wie „Möwe“ oder „Strand“ suchen, die ich auf einem der Macs vergeben habe, und finde sofort die passenden Bilder. Und ich kann ein Bild irgendwo bearbeiten – automatisch verbessern oder nur einen Ausschnitt nehmen oder einfach nur drehen oder begradigen – und die Änderungen werden quasi instantan auf allen Geräten nachgezogen. Ich muss mir auch keine Gedanken mehr machen, welche Fotos ich mit iTunes aufs iPad synchronisiere, um sie jemanden zu zeigen, sie sind einfach alle da.

Fotos 3

Fotos für iPhone

Abstriche gibt es allerdings für Aperture-Benutzer bei der Bildbearbeitung. Die Bearbeitungsfunktionen von „Fotos“ sind zwar mächtiger als sie auf den ersten Blick erscheinen, kommen aber an Aperture nicht ran. Wem die Funktionen nicht reichen und trotzdem „Fotos“ nutzen möchte, sollte die Bilder idealerweise vorm Import mit einem anderen Programm bearbeiten. Das gilt auch für das Hinzufügen von GPS-Koordinaten, denn dies kann „Fotos“ zumindest noch nicht. Für mich überwiegen die genannten Vorteile, da ich in der Regel – schon aus Zeitgründen – in 99% der Fälle mit croppen, begradigen, verschlagworten und automatisch verbessern auskomme. Für iPhoto-Nutzer hingegen fällt mir kein Grund ein, nicht umzusteigen. Bedenken sollte man noch, dass die 5 GB Inklusiv-iCloud-Speicher in vielen Fällen nicht mehr reichen werden, wenn die Fotosammlung dazukommt. Ich musste auf den 200GB-Tarif umsteigen (4 EUR pro Monat), zahle aber im Endeffekt nicht mehr als für Picturelife und habe jetzt noch jede Menge freien Speicherplatz für mein iCloud-Drive.

Fotos 4

Bildbearbeitungsfunktionen bei Fotos für Mac

„Fotos“ bietet – wie auch unter iOS – eine Veröffentlichungsfunktion ins Web (iCloud-Fotofreigabe). Nicht so schick wie bei Ipernity, aber die Jahresgebühr dort könnte ich dann immerhin einsparen. Vielleicht werde ich dazu aber auch wieder Flickr nutzen, denn zumindest die Performance-Probleme auf iOS-Geräten scheinen mir inzwischen beseitigt zu sein, auch wenn mir das neue Design immer noch nicht zusagt. Mein Foto-Workflow bleibt also zumindest was diesen Teil betrifft in Bewegung.

Ich nutze „Fotos“ übrigens nur für Fotos. Screenshots sammele ich in einem intelligenten Album und übernehme diese in meine Screenshotverwaltung „Ember“, über die ich bei Gelegenheit auch mal einen Artikel schreiben müsste. Auch diese synchronisiert über alle Geräte (via Dropbox) und bietet Screenshot-typische Bearbeitungsfunktionen wie das Zeichnen von Pfeilen, das Einfügen von Texten oder das Verpixeln von Bildausschnitten.

Version 7.2 - © 1995-2016 by Dr. Markus Jasinski - Impressum