Apple a mis à jour iOS 13 à un rythme record, en partie pour ajouter de nouvelles fonctionnalités, mais, surtout, pour corriger les bugs.
Mais cela ne signifie pas que des fonctionnalités supplémentaires ne sont pas encore à l'horizon. Par exemple, la fonctionnalité de caméra Deep Fusion, qu'Apple a annoncé lors de son événement «par innovation uniquement» plus tôt cette année aux côtés de l'iPhone 11 et de l'iPhone 11 Pro. Apple a toujours déclaré que la fonctionnalité serait lancée à une date ultérieure, avec une mise à jour logicielle ultérieure vers iOS 13, et maintenant la fonctionnalité est en version bêta.
Le bord a le rapport aujourd'hui, décrivant comment Apple travaille sur le prochain lancement public de Deep Fusion et comment la fonctionnalité améliorera encore les appareils photo déjà impressionnants des nouveaux smartphones phares d'Apple.
Vous pouvez voir le résultat d'une photo capturée avec Deep Fusion dans l'image en haut de cet article.
Deep Fusion est une fonctionnalité importante pour les images de «lumière moyenne à faible». C'est également une fonctionnalité qui s'exécute entièrement en arrière-plan, travaillant pour optimiser et améliorer les images pendant que le propriétaire de l'iPhone 11/11 Pro prend des photos en déplacement.
Le rapport présente une belle ventilation de la façon dont il devrait fonctionner en arrière-plan:
- Au moment où vous appuyez sur le déclencheur, l'appareil photo a déjà saisi trois images à une vitesse d'obturation rapide pour figer le mouvement dans la prise de vue. Lorsque vous appuyez sur l'obturateur, il prend trois photos supplémentaires, puis une exposition plus longue pour capturer les détails.
- Ces trois prises de vue régulières et prises de vue à longue exposition sont fusionnées dans ce que Apple appelle un «long synthétique» - c'est une différence majeure par rapport au Smart HDR.
- Deep Fusion sélectionne l'image à exposition courte avec le plus de détails et la fusionne avec l'exposition longue synthétique - contrairement à Smart HDR, Deep Fusion ne fusionne que ces deux images, pas plus. Ces deux images sont également traitées pour le bruit différemment de Smart HDR, d'une manière qui est meilleure pour Deep Fusion.
- Les images sont exécutées en quatre étapes de traitement des détails, pixel par pixel, chacune adaptée à des quantités croissantes de détails - le ciel et les murs sont dans la bande la plus basse, tandis que la peau, les cheveux, les tissus, etc. sont au plus haut niveau. Cela génère une série de pondérations pour savoir comment mélanger les deux images - en prenant les détails de l'une et le ton, la couleur et la luminance de l'autre.
- L'image finale est générée.
Selon le rapport, le téléobjectif utilisera principalement Deep Fusion, la fonction Smart HDR ne prenant le dessus sur une prise de vue que lorsqu'il y a des scènes très lumineuses. L'objectif grand angle standard, quant à lui, s'appuiera principalement sur la fonction Smart HDR pour les scènes lumineuses à moyennement lumineuses, et Deep Fusion entrera en scène avec les scènes d'éclairage moyennes à faibles. L'objectif ultra large n'utilisera jamais la fusion profonde ou le mode nuit, car il ne prend en charge que la fonction Smart HDR, et aucune des autres fonctionnalités.
Le mode nuit sera toujours activé et sera la caractéristique principale dans un scénario de faible luminosité.
Comme indiqué dans le rapport, Apple teste actuellement la fonctionnalité dans une version bêta d'iOS 13. Cependant, cette version bêta n'est actuellement pas disponible pour les développeurs, ni pour les bêta-testeurs publics. Apple lancera probablement cette première version bêta, avec Deep Fusion, très bientôt, peut-être même plus tard aujourd'hui, sous iOS 13.2..
Attendez-vous avec impatience l'arrivée de Deep Fusion?