Avec iOS 7, Apple a ajouté des filtres (merci Instagram…) dans l’application Photos de l’iPhone. Mais avec un système à jour (Mountain Lion/iPhoto), il est impossible de récupérer l’image filtrée sans passer par le flux de photos. Avec Mavericks et sa mise à jour d’iPhoto, ça fonctionne par contre très bien.
Quand on importe une image avec un filtre sous Mountain Lion ou Mavericks avec Transfert d’images, elle arrive sans filtre. Quand on utilise iPhoto sous Mountain Lion, même chose. Mais avec iPhoto sous Mavericks (version 9.4.7), c’est bien la version filtrée qui est chargée.
Ce que je me demande, c’est comment c’est récupéré exactement. Les filtres sont a priori appliqués en temps réel, ce qui expliquerait que les photos sont récupérées sans filtres, mais je ne sais pas comment iPhoto va lire le filtre à appliquer.
Si la version de iPhoto est bien la même (et non une Beta pour Mavericks), c’est peut être au niveau de Core Image qu’il faut regarder. Après tout il est sur iOS et OS X et des dires d’Apple il fait des filtres non destructeurs.
« The Core Image framework (CoreImage.framework) provides a powerful set of built-in filters for manipulating video and still images. You can use the built-in filters for everything from touching up and correcting photos to face and feature detection. The advantage of these filters is that they operate in a nondestructive manner, leaving your original images unchanged. Because the filters are optimized for the underlying hardware, they are fast and efficient. » (iOS Developer Library)
Je viens de réaliser que PixelMator gère aussi les filtres iOS7. On peut d’ailleurs les appliquer à n’importe quelle photo si on veut.