web analytics

Comparatif de détection de l’oeil : Nikon, Canon et Sony

39
BILLET PREC.
BILLET SUIV.

Voici un intéressant comparatif des systèmes de détection et de suivi de l’oeil chez Nikon, Canon et Sony… C’est une vidéo assez longue et il faut aller jusqu’au bout pour avoir une vision d’ensemble.

En résumé : Sony domine toujours ce domaine de détection de l’oeil, qu’ils ont inauguré avant les autres, c’est donc assez normal : « rendons à César »… Mais Nikon et Canon ne sont pas du tout ridicules et se rapprochent doucement, après une mise à jour firmware, que les utilisateurs peuvent télécharger et installer très facilement (à noter qu’il ne serait pas aussi facile chez Sony de faire ces upgrades).

Les trois appareils testés s’en sortent donc plutôt bien dans l’ensemble, avec une réactivité meilleure chez Sony, c’est certain. Ce que j’ai remarqué sur le Canon EOS R : c’est que l’affichage du collimateur sur l’oeil peut sembler un peu « en retard » parfois… Mais ce n’est que l’affichage, car en fait : la mise au point suit parfaitement l’oeil (ce que j’ai constaté sur mes propres tests) et les photos sont nettes.

Petit défaut sur le Nikon : à très grande ouverture, parfois la détection de l’oeil accroche les cils et non pas la pupille (donc les cils sont nets et la pupille de l’oeil est floue : comm un front-focus). Ci-dessous :

On aura aussi remarqué dans ce test très bien mené, que le 70-200 mm f/2.8 actuel (pour reflex) monté sur la bague F/Z fait un peu de bruit. Alors que le Canon EF 70-200 mm f/2.8 monté lui aussi sur une bague EF/R n’en fait aucun. Ce que j’ai pu remarquer avec mes propres objectifs EF (comme le EF 85 mm f/1.4) ou un simple EF 50 mm f/1.8 STM.

 

Sur le Canon : on remarque que si le sujet est un peu loin (au delà de 1m50 pour un 50 mm), alors c’est la détection du visage (excellente aussi) qui remplace la détection de l’oeil. Et le focus sur l’oeil ne s’active à nouveau, que si le sujet est relativement proche. Ce qui ne me semble pas totalement illogique, puisque à une certaine distance, vous conviendrez qu’il y a peu de différence de profondeur de champs entre l’ensemble du visage et l’oeil. Au final, j’ai pu remarquer que les photos sont « aussi nettes » lorsque c’est la reconnaissance des visages qui est en action à la place de la détection de l’oeil.

Sur le Sony, on ne peut pas (semble-il) choisir entre les deux yeux (je n’ai pas un Sony sous la main, si vous pouvez confirmer). Alors que sur le Canon et le Nikon, on peut (boutons latéraux du pad arrière). J’ai pu constater sur le Canon EOS R, qui si vous êtres face à plusieurs personnes (3 ou E par exemple) : il donnera priorité à l’oeil le plus proche (ce qui est logique)

Mais que vous pourrez passez en revue les 6 yeux dans l’ordre (si il y a trois personnes en admettant qu’il n’y ait pas de borgnes). Ce qui vous permet de choisir par exemple la personne qui n’est pas la plus proche de vous, de préférence.

On constate dans le film que si les deux yeux sont à la même distance : sur le Nikon, la pastille de détection l’oeil aurait tendance à sauter « sans arrêt » d’un oeil à l’autre, ce qui semble énervant (mais je n’ai pas pu tester le Z7 depuis la mise à jour du firmware).

Il peut arriver au Nikon d’être « dans les choux » de façon inexplicable et de faire le point sur un élément de l’arrière plan (image ci-dessous). Et de rester « bloqué » sur cet arrière plan, qui n’est pas considéré comme un visage… Mais vous verrez ça sur la vidéo.

 

En conclusion : Nikon et Canon sont en train de refaire doucement leur retard sur Sony, concernant ce point précis de la détection et du suivi de l’oeil. Cela prendra encore peut-être un ou deux ans : qui sait (?). Mais cela se fera très probablement. Et même si Sony progresse encore de son côté, ce dont on dispose déjà aujourd’hui chez Nikon et Canon : me semble déjà très intéressant…  Et presque suffisant ! Vu que tout de même, je n’utilise pas ce système en permanence.

J’ai d’ailleurs programmé la touche AF-ON de mon EOS R pour activer / désactiver instantanément la détection du visage. C’est bien pratique et encourage à la tester plus souvent…

De mon expérience personnelle avec le Canon EOS R et des objectifs à très grande ouverture (le RF 50 mm f/1.2, ou le EF 85 mm f/1.4 L IS USM monté sur la bague) : ce système de suivi AF est désormais « pleinement utilisable »… Et à n’en pas douter, il continuera à progresser : peut-être grâce à de futures mise à jour Firmware (chez Canon, on peut aussi mettre à jour le firmware des objectifs RF). Et certainement aussi grâce à de prochains modèles…

Ce qui m’amène à une réflexion : jamais nous n’avons eu à notre disposition des appareils photos aussi performants, avec lesquels il est quasiment devenu impossible de rater une photo, ou sa mise au point… Et pourtant : jamais les photographes ne se sont autant plaint de leurs appareils ? Cherchez l’erreur…

C’est peut-être que : vu qu’il ne peuvent plus dire  « c’est la faute de l’appareil »… lorsque leurs photos s’avèrent inintéressantes : ça les met encore plus « en rogne » qu’avant. Ils comprennent que si leur photos sont nulles c’est vraiment de leur faute… Ce qui est « inacceptable » pour les individus les plus orgueilleux ;-)

Donc ils râlent après n’importe quoi : le suivi sur l’oeil qui ne serait pas assez rapide, ou la dynamique du capteur qui ne serait pas à la hauteur de leur talent ! Ils sont tellement énervés qu’ils seraient prêt à s’en prendre à n’importe qui : même à leur modèle ! Ou à ce photographe qui leur a expliqué que si leurs photos sont nulles : il feraient mieux de prendre un cours de photo, plutôt que de changer d’appareil…

 

Vos commentaires, expériences et avis sur la détection de l’oeil (ou sur d’autres sujets) sont bienvenus en commentaire !

BILLET PREC.
BILLET SUIV.

39 commentaires

    • Je crois que la détection du visage est plus rapide, car plus large, plus simple…

      J’ai remarqué qu’elle « suivait » aussi plus reflex rapidement (il me semble).

      En général l’appareil commence par le visage (il affiche un rectangle blanc). Puis dans un second temps il affiche un second (petit) rectangle sur l’oeil, à l’intérieur du grand rectangle du visage.

      Je pense que cela fonctionne sur deux niveau : un niveau plus large et plus rapide pour le visage.

      Puis un second niveau plus précis (et moins rapide) sur l’oeil…

      • Ce n’est pas ma question J-F, je répète : à quoi sert une détection de visage qui ne fait pas _déjà_ le point sur l’oeil ? Ce n’est pas le point de vue technique qui m’intéresse là mais fonctionnel… Ma question porte sur l’utilité fonctionnelle d’une détection des visages qui ne fait pas le point sur l’oeil ?

        Pour ma part et jusqu’à ce qu’on me donne d’autres éléments (ce qui est possible) j’en conclus que la réponse est : à rien !

        Tout ce que je vois dans cette détection de l’oeil, c’est que fonctionnellement, si ça ne permet pas de choisir l’oeil, ça n’est que du marketing puisqu’à priori, une détection de visage efficace doit faire la mise au point sur l’oeil quand celui-ci est visible. (sinon, encore une fois, je ne vois pas trop à quoi elle sert).

        Ce que je veux savoir, c’est si je rate quelque chose qui mettrait à mal cette explication.

        • Je ne suis pas sur de bien comprendre la question…

          Ben si, bien entendu : en street photo, sur le vif par exemple suis en train de marcher je shoot avec une vitesse assez élevée de 1/800 sec, un diaphragme à f/2.8 (en Mode M ISO auto par exemple) : la détection de visage permet de faire la point plus surement et au bon endroit, mieux que si l’on utilise la sélection automatique du collimateur (sur toute la surface) paramètre que j’utilise. sur mon reflex pour ce genre d’images.

          Dans ce mode la (tous collimateurs actifs): c’est priorité au sujet le plus proche, donc ça peut être n’importe quoi, qui passerait au premier plan. Alors que avec la détection des visage activée : l’AF fait le point automatiquement sur le visage le plus proche : ce qui est bien plus intéressant.

          Autre cas de figure ; photos de groupe, ou photo sociale, avec une profondeur d champs confortable (f/8 histoire que tout le monde soit à peu près net) : je garde tous les collimateurs actif, détection des visages activée, ça permet de ne pas se poser de question, le visage le plus proche sera obligatoirement net (et c’est mieux que l’épaule la plus proche, ce qui se passait avant sans la détection du visage).

          Je ne comprend pas bien ce que tu veux dire par « l’utilité fonctionnelle d’une détection des visages qui ne fait pas le point sur l’oeil ? » Car si tu est à f/2.8au 35 mm à 1,5 m par exemple… Le visage est Net : donc l’oeil est mathématiquement net aussi (car il y a suffisamment de profondeur de champs pour être net du boit du nez à l’arrière des oreilles).

          Il n’y a que lorsque la profondeur de champs est très courte, que la détection de l’oeil devient impérative à mon avis… Avec de très grandes ouvertures (en dessous de f/2), à des distances assez courtes (en dessous de 1m20 disons) et au delà du 50 mm, … (risque remise au point sur le bout du nez avec les yeux flou).

          Le reste du temps (lorsque prof de champs est suffisante et supérieur à 2 ou 3 cm) : alors faire le point sur le visage, revient au même que faire le point sur l’oeil… (puisque tout le visage sera obligatoirement net : du bout nu nez l’arrière des oreilles).

          • Donc, ce que tu veux dire, c’est que dans certains cas, la détection de visage ne te permets pas à elle seule d’assurer la netteté de l’oeil ? C’est ballot !
            Je repose donc la question : à quoi sert-elle dans ce cas ? Y a t-il des cas ou on veut détecter un visage ET que l’oeil ne soit pas net ? A quoi ça sert ?

            Ce que je veux dire c’est que :
            – je ne vois pas l’intérêt d’une détection de visage qui ne fait pas le point sur l’oeil
            et par conséquent :
            – je ne vois pas l’intérêt d’une détection de l’oeil sans avoir la possibilité de choisir l’oeil (c’est son seul intérêt puisque c’est la seule alternative une fois le visage cadré).

            Et, cas que tu ne décris pas, si tu es tellement proche que ta détection de visage ne fonctionne plus parce que l’appareil n’arrive plus à reconnaitre la forme d’un visage, la détection rapide de l’oeil risque d’être le cadet de tes soucis, et au mieux juste un gadget.

            • Détail préalable : Sur Canon et Nikon : on peut changer d’oeil avec les touches droites / gauche du pad (et du Joystick)… Sur. Sony ne ne sais pas (c’est gênant si on ne peut pas).

              Ce que je veux dire, c’est que dans certains cas : la détection de visage n’a aucun besoin d’activer la détection de l’oeil pour être efficace : et c’est peut-être plus rapide comme ça (? moins de calculs ?)…

              Sinon, je ne comprend toujours pas vraiment ta question (je la comprend même de moins en moins) : car si l’appareil détecte le visage : ça va donner obligatoirement un oeil net dans toutes les circonstances (90% du temps) ou la profondeur de champs (qui entourer le plan visage) sera suffisante pour inclure le plan de l’oeil.

              Puisque si la profondeur de champs est de l’ordre de 3 cm (disons) ou davantage ce correspond à 90% des situations, alors. du moment que le plan du visage est détecté (donc forcément net), alors forcément le plan de l’oeil sera net lui aussi : puisque son « plan » (sa distance à l’objectif) se situe obligatoirement dans la zone de profondeur de champs…

              Dans ce cas, il n’y a donc absolument aucun intérêt à détecter l’oeil, si l’ensemble du visage est net (et que la profondeur de champs est suffisante pour aller du bout du nez aux oreilles)…

              La détection de l’oeil ne commencera à devenir « indispensable », que lorsque la profondeur de champs est (disons) inférieur à 3 cm (donc avec de grandes ouvertures et sur des focales un peu plus longues que 50 mm). Car dans ce cas, si la détection du visage se fait (par exemple) sur le nez, alors oui : il y aurait un risque de flou sur l’oeil (situé en arrière du plan le plus éloigné de la zone de profondeur de champs).

              C’est donc ici que la détection de l’oeil devient indispensable ; de façon à sélectionner un plan de netteté situé à la bonne distance (plus précis. donc que le plan de netteté sélectionné par la détection du visage qui est peut-être plus grossière et aléatoire, car plus rapide)…

              Mais en dehors cela, la détection du visage est vraiment très utile (je l’ai testé en pratique en reportage et dans des tas de situations, autres que le portrait strictement), et ceci sans que la détection de l’oeil ne soit « nécessaire »…

              Je crois que c’est la logique suivie par Canon. Et peut-être ce qui explique que la détection de l’oeil ne s’active que à une certaine distance suffisamment courte (moins de 1,5 m) ainsi qu’à une ouverture assez lumineuse pour qu’elle risque de générer une profondeur de champs trop Courte.

              Enfin pour le « cas que tu ne décris pas » : si tu es tellement proche que ta détection de visage ne fonctionne plus parce que l’appareil n’arrive plus à reconnaitre la forme d’un visage… Alors dans ce cas : la détection rapide de l’oeil se fera sur l’oeil le plus proche (mais on pourra choisir l’oeil le plus éloigné si son préfère). Car la détection de l’oeil n’a pas besoin de la détection du visage pour fonctionner. C’est d’ailleurs un cas que j’ai expérimenté avec un cadrage très serré (en coupant en haut le front au niveau des sourcils et en bas le menton)…

              Je crois que si tu l’essaye, tu comprendra le principe et l’intérêt de cette détection de visage…

              • J’ai parfaitement compris, ne t’inquiète pas… tu devrais me relire en prenant le temps J-F. Tu essaies encore de parler points de détail technique alors que je parle de cas fonctionnels.

                Je tente une dernière fois :
                Je ne dis pas que la détection de visage est inutile, je dis (et j’insiste, puisque tu ne lis que la moitié de mes phrases ;))
                qu’une détection de visage qui
                n’a
                pas
                pour
                but
                une mise au point correcte sur l’oeil
                est inutile.

                Et qu’une détection de l’oeil où on n’a pas le choix de l’oeil est également inutile puisqu’une détection de visage normalement efficace est supposée faire le boulot (relis les phrases en entier s’il te plait, pas en diagonal).

                Maintenant je peux comprendre que tu n’aies pas le temps…

                Pour en revenir à ta prise de vue tellement proche que la détection de visage ne peut pas se faire, avoue quand même que ce type de cadrage très serré n’est pas fréquent. Tellement que c’est moi qui t’en ai parlé le premier ;).
                Et que tu peux te passer de détection de l’oeil et réussir ton cliché quand même facilement dans ces conditions.

                Pour le reste, je suis au courant… je suis étonné que tu n’aies pas réagi.

                Ce que je voulais dire c’est que la détection de l’oeil chez Sony ne sert pas à grand chose fonctionnellement. Ils leur suffisaient de faire en sorte que la détection de visage fonctionne correctement pour obtenir les mêmes résultats puisqu’on ne peut pas choisir l’oeil . Bref, depuis tout ce temps, un bel argument marketing de plus pour les gogos.
                Ce qui est curieux, puisqu’il semble que leur AF soit très correct.
                On ne change pas aussi facilement de mauvaises habitudes…

                • Je t’assure que j’ai relu 4 ou 5 fois ;-) Et je viens de recommencer : sois en certain…

                  Mais je ne comprend toujours pas pourquoi tu dis « une détection de visage qui n’a pas pour but une mise au point correcte sur l’oeil est inutile ».

                  Là je ne comprend pas (du tout) cette affirmation, qui semble importante pour toi.

                  Car personnellement, je trouve ça « absolument très utile » justement (et l’ai beaucoup. expérimenté avec succès sur l’EOS R….

                  Je suis donc en total désaccord avec cette phrase. Et je ne comprend pas ce qui t’amène à cette conclusion…

                  Du coup : site suis mon raisonnement (que je répète autrement) : on a pas besoin « obligatoirement » de la détection de l’oeil dans la plupart des cas (du moment que l’on a suffisamment,t de profondeur de champs pour que le visage soit net de l’avant (le nez), à l’arrière (les oreilles), vu que l’oeil est situé entre ces deux plans de netteté…

                  Par contre on a besoin d’une mise au point sur le visage, dans pas mal de cas : car c’est plus précis que la « détection du sujet le plus proche » lorsque l’on utilise la sélection Automatique entre Tous les collimateurs activés.

                  C’est d’ailleurs un peu ce que tu dis à la fin :  » la détection de l’oeil chez Sony ne sert pas à grand chose fonctionnellement. Ils leur suffisaient de faire en sorte que la détection de visage fonctionne correctement pour obtenir les mêmes résultats »

                  Oui, c’est vrai…

                  Et effectivement : lorsque la détection de l’oeil fonctionne : il me semble absolument indispensable de pouvoir changer d’oeil… C’est un défaut souligné sur le Sony dans la vidéo.

                  Reste que dans certains cas (très grande ouverture et très près) : il est plus précis de détecter l’oeil, que seulement le visage… Donc la détection de l’oeil a beaucoup d’utilité, dès que l’on utilise un 85 mm f/1.8. à 1 mètre, par exemple (et encore plus à f/1.4, ou f/1.2).

                  Au final je ne comprend pas bien ce que tu veux dire (ce n’est pas de la mauvaise volonté, je t’assure… Je viens de tout relire depuis le début ! ).

                  Merci d’avoir pris le temps d’expliquer…

                  • +1 Je viens de lire votre échange et je ne comprend pas l’intérêt de la remarque de Pierre à part s’acharner à vouloir avoir le dernier mot…
                    Même avec quelques erreurs de frappes les explications de JF sont claires et pertinentes.
                    Il suffit de tester le système pour comprend son intérêt.

                    Merci JF pour l’info de pouvoir changer oeil gauche / droit avec les flèches du Pad ! Sur un portrait serré de 3/4 face à pleine ouverture cette fonction devient indispensable.

  1. Test très intéressant, merci.
    Je viens de faire une séance de portraits pour une entreprise, avec mon EOS R + Tamron 85mm 1,8. Shooté à diaph 2 en mode AF Servo (suivi continu) détection oeil activé. 3 personnes, 300 déclenchements et seulement 9 photos où la netteté n’est pas parfaite avec un léger front focus, je pourrais les garder mon client ne le remarquerait même pas. Soit 97% de réussite.
    Le même shooting avec mon 5D MkIV avec un collimateur à visée réflexe c’était seulement 50% de réussite … Donc pour blinder l’affaire je faisais 2x plus de déclenchements ou bien je demandais aux personnes de ne pas bouger d’un pouce. Pas génial pour mettre à l’aise des gens qui n’ont pas l’habitude de prendre la pose.
    En visée Live View au 5D Mk IV le résultat était bien meilleur et montait autour de 70%.

    Pour les portraits à pleine ouverture, y’a pas photo, merci les progrès technologiques.
    J’attend avec impatience le prochain R Pro avec le Pad pour déplacer en un éclair les collimateurs afin d’être à l’aise en reportage comme c’était le cas avec le 5D MkIV.
    Ou bien Canon peut-il faire une mise à jour Firmware du R afin de rendre hyper-réactif ces déplacements de collimateurs et ce boitier sera aussi parfait à mes yeux qu’il accroche ceux de mes sujets ;-)

      • Oui c’est comme cela que j’ai personnalisé les flèches, mais le déplacement est hyper lent, même pour déplacer un groupe large.
        Sur le 5D MkIV ou un 80D j’utilise beaucoup le groupe de collimateur carré que je déplace en un seul appuie du centre vers le bord gauche ou vers le bord droit. En reportage c’est hyper rapide, simple et pratique selon que mon personnage principal se trouve a gauche, au centre ou à droite.

        Il n’y a plus se regroupement simple et rapide des collimateurs sur le R, c’est pour moi un gros défaut mais qui je suis sûr pourrait être corrigé avec un firmware ;-)

        • Oui, c’est vrai…

          Je compense ça avec le changement rapide de Méthode de collimateur (j’ai programmé la touche Mfn pour le changement « directe » de Méthode de sélection de colim. Pour le coup, je trouve ce changement plus rapide que sur l’EOS 5DsR.

          J’ai aussi désactivé (masqué) certaines des Méthodes de Sélection., afin de « faire le tour » plus vite…)

          Et puis j’ai aussi activé le pilotage du collimateur par touché de l’écran (zone haut et droite)… je m’en sert aussi.

          • Oui j’avais regardé ton article sur tes choix de personnalisations, je crois que nous avons quasiment les mêmes.
            Effectivement j’ai désactivé (masqué) certaines méthodes de collimateurs. J’en ai gardé 4 : détection visage / collimateur unique / zone AF carré / Zone large AF rectangulaire, que je change comme toi par la touche directe M-Fn. On fait le tour rapidement.
            J’ai affecté la touche AF On à l’activation/désactivation de la détection des yeux.
            La touche mémorisation d’expo au basculement entre AF One Shot / AF Servo
            Et la touche collimateur à l’activation/désactivation de l’écran du Toucher/déplacé de l’AF. Car je vise de l’oeil gauche donc mon nez touche l’écran parfois contre ma volonté, bougeant l’AF… du coup j’utilise mon nez au lieu du pouce pour déplacer les collimateurs IoI ! (même zone haut/droit.)

            Sinon en reportage il m’arrive souvent de viser avec l’écran, le déplacement de l’AF avec un doigts de la main gauche est hyper rapide, mais je n’ai plus la main gauche dispo sur la bague de zoom…

            Bref on s’habitue vite mais je l’avoue, si canon a la bonne idée de faire un correctif pour déplacer en une touche des zones AF prédéfinies bord gauche / centre / droit, je serai satisfait.

              • Oui c’est vrai, comme toi en mode prise de vue j’ai tout essayé mais rien n’est utilisable !
                La seule fonction utile est en mode lecture, pour mettre des étoiles aux images en une touche. Je passe ainsi en revue uniquement les photos sélectionnées avec la molette d’index du changement de vitesse.
                Je retrouve les étoiles sous Canon Camera Connect pour envoyer une sélection rapide à mes clients et bien sur sous Lightroom.

  2. Tout est très différent entre le mode « je regarde un pacman » et je fais de la photo en déclenchant une rafale …

    En regardant cette vidéo à partir de 3’08 » on comprend que pendant une rafale le pacman de l’A7III se comporte au mieux comme une détection de visage en se baladant de partout sauf sur les yeux .. autant dire que si la PDC est suffisante pour couvrir tout le visage ça ira.. autrement l’eye track de l’A7IIII n’est pas opérationnel en mode photo active pendant les rafales (je passe sur le lag qui est bien supérieur à ce que j’imaginais.
    https://www.youtube.com/watch?time_continue=237&v=WODxhodB3-o

    Cette fonction eye track, c’est comme la stabilisation .. ça n’a jamais réellement permis de faire de meilleures photos. Il faut une bonne vitesse d’obturation pour figer tout mouvement du visage et un paquet de collimateur correctement placé sur le visage et être capable de suivre un sujet mouvants pendant une rafale.

    • Oui, bien entendu : la détection et suivi de l’oeil n’aidera en rien un photographe ignorant qui ne fait pas les bons choix…

      Et ce n’est qu’un paramètres parmi d’autres.

      Toutefois, pour un photographe connaissant son métier et maitrisant les techniques classiques, ça peut aider. C’est comme tout.

      Cela n’a pas l’importance que certain lui prête. Mais ce n’est pas non pays un gadget inutile.

      Notamment avec le RF 50 mm f/1.2, pour les portraits à f/1.2 : j’ai trouvé que c’était efficace…

      • Je pense que l’eye-AF, c’est comme l’autofocus, la mesure d’expo, des zooms f/2.8 ou plus qui soient de bonne qualité, etc.

        On peut faire sans. De grands photographes ont déjà sorti des photos stupéfiantes avec un centième de notre technologie.

        Mais c’est quand même foutrement confortable de se prendre de moins en moins la tête avec le focus, l’expo, le buffer, etc. C’est confortable, et tout ce qui est confortable est bon à prendre.

        A la fin, ce qui fait une bonne photo, c’est de se trouver au bon endroit, au bon moment avec le bon cadrage. Tout le reste, si c’est automatisable ça me convient perso. Je suis donc content que l’autofocus soit sur tout le champ (marre du focus and recompose), de plus en plus fiable, et que j’ai de moins en moins de questions à me poser.

        J’ai débuté la photo avec un K5, donc focus au centre et décentrer après. Ben franchement quand je vois la facilité d’usage d’un mirrorless FF avec une optique super lumineuse, j’ai pas envie de revenir aux vieux reflex où tout shoot sous f/2 demande un soin extrême… et nuit au plaisir de shooter.

  3. Olivier z6 machin le

    J’avais regardé hier la vidéo. Je suis abonné à sa chaine. Le présentateur sous ses airs maitrise son sujet.

    J’ai testé très rapidement la mise à jour. Les yeux sont détectés, on peut changer d’œil facilement (y compris avec la joystick )
    Mais je n’ai pas pu assez le tester, je viens de le déposer au SAV car il est dans les numéro de série qui ont un soucis avec l’IBIS (merci NIKON USA qui a lancé un outil alors qu’hier rien de tel n’existait sur le site EU ou FR)

    A suivre.

    Toujours est il que cette version 2.0 m’est la bienvenue. J’ai trouvé le MAP plus réactif. Mais effectivement il continue à s’emmêler les pinceaux de temps en temps.

  4. Ce qui m’amène à une réflexion : jamais nous n’avons eu à notre disposition des appareils photos aussi performants, avec lesquels il est quasiment devenu impossible de rater une photo, ou sa mise au point… Et pourtant : jamais les photographes ne se sont autant plaint de leurs appareils ? Cherchez l’erreur…

    Bien d’accord avec le reste de la réflexion. Il y aussi possiblement que les gens s’attendent à ce que l’appareil fasse tout pour eux. Ce qui n’est jamais le cas, et plus particulièrement en portrait! Un style ou « la pose » et la maîtrise de l’éclairage sont infiniment plus important que les capacités techniques du boîtier.

    Pour pousser la réflexion, je me demande aussi si cela n’a pas un lien avec la baisse de popularité des appareils photos. Beaucoup s’étant acheter des appareils en s’imaginant qu’ils en tireraient par magie « de bonnes photos ». Or, avec le temps, ayant réalisé qu’ils ne font pas mieux que ce qu’ils font avec leur téléphone, ils délaissent simplement le marché. Ne réalisant évidemment pas que le problème n’est pas leur système mais bien leur capacité à l’exploiter.

  5. Bonjour
    J’ai rêvé ou Panasonic a lui aussi un hybride plein format ? Enfin….. ça doit être le fruit de mon imagination, parce qu’il passe toujours à la trappe !!!!!

    • Oui, pour le moment je ne l’ai pas ajouté… car il me semble bien trop cher et bien trop lourd.

      Pas intéressant pour le grand public, il me semble…
      Et pour le moment je n’y crois pas du tout : qui va acheter un ensemble aussi lourd (avec les objectifs) ?

      On verra : je l’ajouterais un peu plus tard… si j’ai le temps.
      Et si je vois qu’il se vend…

      • Trop cher… l’A7III, l’EOS R et le Z6 sont dans la même gamme de prix !

        Par contre, 1 kg le boîtier seul, je veux bien comprendre !!!! ;-) Le perfectionnisme de Panasonic a un prix : le poids !!

        • 2.499 € pour un 50 mm f/1.4 (seulement si j’ose dire) : c’est très cher…

          1.399 € pour le zoom Lumix S 24-105 mm f4 Macro OIS : c’est cher !

          Oui, ça reste tout de même plus cher que l’équivalent Canon, qui m’inspire davantage confiance ! Et qui coute 1. 019 € en version EF reflex…
          Et coute 1.009 € en version RF pour l’EOS R.

          Vu l’expérience de Canon en matière de 24-105 mm : qui a pondu trois exemplaires en progression constantes, depuis 2005. Je ne vois pas qui va se précipiter sur ce Lumix…

          A part certain pro de la vidéo… Pour pour la photo : tant qu’il n’y a que quelques objectifs à se mettre sous la dent…

        • Le Pana a un autofocus par contraste, et aucun par phase. A mon avis, il a des chances de totalement se faire plier en qualité d’autofocus, réactivité, suivi. (Je n’ai pas vu de comparaison entre les Pana et les Canikony qui me convainc)

  6. Au temps pour moi, j’avais oublié les tarifs des objectifs : peu nombreux et très chers !!!!!
    Effectivement, il est urgent d’attendre.
    Merci beaucoup et bonne fin de soirée

    • On, on a bien le temps de voir si ça décale… ou pas !

      Et si Sigma arrive réellement, avec l’avalanche d’objectifs qu’ils ont promis… (et si il ne s’agirait pas plutôt de simples d’objectifs pour reflex, auxquels ils ont ajouté un simple tube allonge à l’arrière : ce qui fait des truc énormes).

  7. Papy Boyington le

    Le fond du sujet tu l as exprimé, plus la technologie avance, plus on est exposés à une diarrhée d images sans histoire, sans lumière, sans cadrage. Les gens feraient les mêmes images avec un pap à 100 balles.

  8. Je suis passé faire un test du PANA S1 avec le 50 F/1,4 . Test à ouverture 2,0 et la mise au point est légèrement plus en avant que sur l’ iris de l’ oeil . Ceci semble être confirmé par les tests de DIGLLOYD .

    Cependant, l’ appareil n’ avait pas sa dernière mise à jour, qui, parait-il, améliore cela ???

    Autre chose : ce PANA est le 1 er appareil qui a un viseur électronique que je pourrais utiliser …

    Je ne sais pas si l’ appareil effectuait une correction automatique de l’ optique, mais, je constate, avec DXO ( oui, il décode les raw du PANA S1 ) une grosse différente entre, sans et avec corrections géométriques ( bizarre pour un 50 mm ) .

  9. Pingback: Comparatif de détection de l’œil: Nikon, Canon et Sony - BonPlanPhoto

Leave A Reply


Notifiez-moi des commentaires à venir via émail. Vous pouvez aussi vous abonner sans commenter.