Mobile

Qu’est-ce que Deep Fusion et comment ça marche sur l’iPhone 11

Les nouveaux iPhones 11 et 11 Pro Max, annoncés en septembre 2019, ont introduit la technologie Deep Fusion dans les appareils photo des trois modèles afin d’améliorer la qualité des photos, notamment en ce qui concerne les détails et la réduction du bruit. Le système utilise neuf captures pour composer une image.

Comment fonctionne Deep Fusion

Avec le nouveau processeur Apple A13 Bionic des iPhones 11, le système de caméra est programmé pour faire une séquence de photos et les combiner ensuite en une seule image. Il fonctionne ainsi :

En appuyant sur le bouton pour prendre une photo, l’iPhone fera une image longue exposition après avoir déjà pris huit ? quatre photos et ensuite quatre autres images secondaires, soit un total de neuf images.

Selon Apple, pendant la seconde où l’utilisateur appuie sur le bouton, le processeur neural A13 Bionic, appelé Neural Engine, scanne les 24 millions de pixels des images pour composer une photo avec une meilleure gamme dynamique, un niveau de détail plus élevé et moins de bruit, en utilisant l’intelligence artificielle .

  Le MIT crée une technique qui permet d'éliminer les reflets sur les photos

L’image ci-dessus est celle qui a été utilisée pour présenter la technologie Deep Fusion des nouveaux iPhones 11. Selon Phil Schiller, vice-président du marketing d’Apple, c’est la première fois que Neural Engine est chargé de fournir une image finale.

Que fait un processeur neural ?

Le processeur neural utilise l’apprentissage machine pour améliorer l’utilisation par l’utilisateur. Grâce à elle, l’intelligence artificielle peut identifier des modèles et suggérer ce qui pourrait être le mieux pour ce moment.

En ce qui concerne les caméras, le moteur neural d’Apple est chargé d’identifier les conditions d’éclairage, les scénarios, les objets et les personnes afin d’appliquer automatiquement les réglages nécessaires pour chaque type de scène.

Que font déjà les autres smartphones ?

Google utilise également l’intelligence artificielle sur son smartphone Pixel pour améliorer la qualité des photos. Par exemple, le Pixel 3, qui ne possède qu’un seul appareil photo, était juste un point en dessous de l’iPhone XR dans le test de l’appareil photo DxOMark.

  Motorola peut lancer la Moto G 5G avec Snapdragon 690

Il s’avère que sur Pixel il y a une puce dédiée au traitement de l’image, le Pixel Visual Core. Cela en faisait le meilleur Android pour les photos avec un appareil photo. On se souvient également que Pixel fait des portraits avec un seul objectif, alors que d’autres fabricants ont besoin d’un deuxième appareil photo pour cette fonction.

Le Nokia 9 PureView utilise cinq ? deux caméras RGB (couleur) et trois caméras monochromes ? pour enregistrer le même moment. Après le tournage, chaque caméra enregistre 12 mégapixels et donne au processeur 60 mégapixels pour travailler.

Ce montant peut augmenter si le logiciel Nokia 9 PureView comprend qu’il a besoin de plus d’images en fonction de la scène. Ensuite, quatre photos séquentielles sont prises, générant 240 mégapixels de données pour que le processeur puisse composer une seule image.

Ainsi, avec autant de données d’images, l’idée derrière le système de caméra PureView du Nokia 9 est similaire à celle de l’iPhone Deep Fusion : analyser le fichier capturé et tirer parti des meilleurs pixels. Bien entendu, avec une image pouvant atteindre 240 mégapixels, le niveau de détail des photos promet d’être supérieur à celui de tout autre smartphone équipé de deux ou trois caméras.

  Huawei fait la promotion du nouvel appareil photo 3i pour smartphone avec photo DSLR

A propos de l'auteur

Zineb

Enseignante en lycée, je m'intéresse à tout ce qui touche aux nouvelles technologies. #teamMac sur PerlmOl (je ne me sépare d'ailleurs jamais non plus de mon Iphone).

Laisser un commentaire