Isocell Bright HMX : Samsung dévoile un capteur photo de 108 Mpixels en partenariat avec Xiaomi

Des pixels comme s'il en pleuvait
Isocell Bright HMX : Samsung dévoile un capteur photo de 108 Mpixels en partenariat avec Xiaomi

Avec l'Isocell Bright HMX, Samsung dépasse pour la première fois la barrière des 100 Mpx avec un capteur pour smartphone et tablette. Il peut également enregistrer des vidéos jusqu'en 6K à 30 ips. Xiaomi, partenaire de cette annonce, devrait être le premier à l'intégrer dans un de ses produits.

En mai, Samsung lançait deux capteurs photo de 64 et 48 Mpixels : les Isocell Bright GW1 et GM2. Le fabricant vient de dévoiler son Bright HMX, réalisé en partenariat avec Xiaomi « de la conception initiale à la production ». Il propose une définition de 108 Mpixels, Samsung affirmant qu'il s'agit du « premier capteur mobile à dépasser les 100 millions de pixels ».

Cette association entre les deux sociétés n'est pas une surprise puisque Xiaomi l'avait largement teasée il y a quelques jours lors d'une conférence. Le constructeur chinois en profitait pour annoncer l'arrivée d'un smartphone Redmi (sans plus de précision pour l'instant) avec un capteur Samsung de 1/1,7" affichant 64 Mpixels.

Comme les GW1 et GM2, ainsi que leurs prédécesseurs les GD1 et GM1 d'octobre 2018, l'Isocell Bright HMX exploite des pixels de 0,8 μm. Concrètement, les photos affichent une définition de 12 032 x 9 024 pixels, tandis que les enregistrements vidéo à 30 ips peuvent grimper jusqu'à du 6K (6 016 x 3 384 pixels).

Samsung donne quelques détails techniques supplémentaires, notamment qu'il s'agit du premier modèle pour les terminaux mobiles à disposer d'un capteur plus grand de 1/1,33". Combiné avec la technologie Tetracell permettant de regrouper les pixels par paquet de quatre, il permet de meilleurs résultats en basse luminosité selon le coréen.

Une promesse faite à chaque nouvelle génération de capteurs, qu'il faudra comme toujours vérifier dans la pratique. La production débutera d'ailleurs ce mois-ci précise Samsung. Sans surprise, Xiaomi devrait être le premier à intégrer ce capteur dans un smartphone. D'après certaines rumeurs, il pourrait s'agir du Mi Mix 4.

Xiaomi 64 Mpx 100 Mpx Xiaomi 64 Mpx 100 Mpx
Ce contenu est en accès libre

Il a été produit grâce à nos abonnés, l'abonnement finance le travail de notre équipe de journalistes.

ou choisissez l'une de nos offres d'abonnement :

14 commentaires
Avatar de Optrolight Abonné
Avatar de OptrolightOptrolight- 12/08/19 à 11:42:50

Pixel de 800nm, on arrive à la dimension des longueurs d'onde dans le visible. Bref avec la diffraction la qualité d'image ne va pas s'améliorer. Sans parler en basse lumière où on voit qu'ils sont obligés de faire du bining.

Avatar de anagrys Abonné
Avatar de anagrysanagrys- 12/08/19 à 11:49:01

Faire ces capteurs "à taille de pixels constante" par rapport à la génération précédente est une bonne chose. Sauf que du coup le capteur est plus gros, une idée de l'impact sur ça aura sur le système optique ?

Avatar de Furanku Abonné
Avatar de FurankuFuranku- 12/08/19 à 11:51:11

(quote:43065:Optrolight) Pixel de 800nm, on arrive à la dimension des longueurs d'onde dans le visible. Bref avec la diffraction la qualité d'image ne va pas s'améliorer. Sans parler en basse lumière où on voit qu'ils sont obligés de faire du bining.

Je n'ai pas saisis le lien entre longueur d'onde et largeur de pixel :/

Dans le premier cas il s'agit d'une longueur de fréquence, pas d'une taille (ou alors un photon est plus gros que ce que j'imaginais). Donc on pourrait encore descendre les pixels plus bas pour plus de précision, les deux n'ont aucun lien.

Mais il est évident que plus on descend bas, plus de problèmes se posent pour gérer la diffraction et autres interférences physiques. Ce qu'ils compensent par des algorithmes plus ou moins efficaces en aval.

Après je ne suis pas un expert mais ta remarque me laisse perplexe :transpi:

Édité par Furanku le 12/08/2019 à 11:51
Avatar de Salamandar Abonné
Avatar de SalamandarSalamandar- 12/08/19 à 12:12:06

(quote:43068:Furanku) Je n'ai pas saisis le lien entre longueur d'onde et largeur de pixel :/Dans le premier cas il s'agit d'une longueur de fréquence, pas d'une taille (ou alors un photon est plus gros que ce que j'imaginais). Donc on pourrait encore descendre les pixels plus bas pour plus de précision, les deux n'ont aucun lien.Mais il est évident que plus on descend bas, plus de problèmes se posent pour gérer la diffraction et autres interférences physiques. Ce qu'ils compensent par des algorithmes plus ou moins efficaces en aval.Après je ne suis pas un expert mais ta remarque me laisse perplexe :transpi:

Ça se voit que tu n'as jamais fait de physique :D

Le phénomène bien connu de diffraction des ondes apparaît lorsque un objet physique a une dimension comparable à la longueur d'onde. Et la lumière est bien plus proche d'une onde que de ce qu'on appelle un photon.

http://www.thestargarden.co.uk/Images/Reflection-diffraction.jpg

Édité par Salamandar le 12/08/2019 à 12:12
Avatar de js2082 Abonné
Avatar de js2082js2082- 12/08/19 à 12:31:47

(quote:43067:anagrys) Faire ces capteurs "à taille de pixels constante" par rapport à la génération précédente est une bonne chose. Sauf que du coup le capteur est plus gros, une idée de l'impact sur ça aura sur le système optique ?

Il sera soit plus gros donc plus cher, soit de même taille mais mieux "taillé" pour éviter les défauts et avoir la même qualité d'image, donc plus cher là aussi.

Dans tous les cas, tu devras payer plus.

Avatar de Furanku Abonné
Avatar de FurankuFuranku- 12/08/19 à 12:34:31

(quote:43069:Salamandar) Ça se voit que tu n'as jamais fait de physique :DLe phénomène bien connu de diffraction des ondes apparaît lorsque un objet physique a une dimension comparable à la longueur d'onde. Et la lumière est bien plus proche d'une onde que de ce qu'on appelle un photon.http://www.thestargarden.co.uk/Images/Reflection-diffraction.jpg

Disons que mon niveau de physique (appliquée) s'arrête en BAC+2 et qu'on n'a pas abordé ce type de sujet, d'où mon interrogation :transpi:

Mais je me rends compte que je connaissais ce soucis physique, pour avoir vu son explication dans divers documentaires, mais pas son nom. Comme quoi la science, on croit savoir jusqu'à se rendre compte que l'on ne sait pas.

Merci pour ces détails :)

Édité par Furanku le 12/08/2019 à 12:35
Avatar de tazvld Abonné
Avatar de tazvldtazvld- 12/08/19 à 12:37:45

Je ne comprend pas comment avec 1 pixel composé 4 sous pixel dont la surface sera sûrement inférieur à 1 pixel simple on arrive à amélioré la qualité de la photo.

Il me semble que le problème à la base, c'est l'aspect aléatoire du nombre de photon qui va frappé le capteur pendant le temps d'exposition. En diminuant la taille du capteur, on augmente la variabilité des mesures : ça crée du bruit. Si sur une surface donnée on a 40 photon qui frappe, qu'est ce que ça nous apporte de plus de savoir qu'il y en a eu 15 en haut à gauche, 7 en bas à gauche, 5 en haut à droite et 13 en bas à droite (il me semble que les capteurs ne sont pas des jolies grilles bien carrées, mais c'est pour l'exemple)? Comment cette information est exploitable ?

Avatar de Ramaloke Abonné
Avatar de RamalokeRamaloke- 12/08/19 à 12:44:30

Il me semble que se pose aussi les phénomènes de tunnel quantiques des électrons qui passent d'un circuit à l'autre (d'un pixel à l'autre) et qui deviennent de plus en plus problématique à mesure que la taille des composants diminue.

Parfois on observe même des baisses de qualité suite à l'augmentation du nombre de pixel, ce qui est paradoxal. C'est d'ailleurs un argument en faveur des capteurs "full frame" face au micro4/3 ou au format plus petit (smartphone), car à quantité de pixel équivalent, plus le capteur est grand, plus la densité diminue (et avec les risques d'exciter le recepteur d'à côté que ce soit pour un problème de diffraction ou électrique), de même que la sensibilité du capteur augmenter, car en étant plus grand il perçoit plus de "lumière".

Avatar de Ramaloke Abonné
Avatar de RamalokeRamaloke- 12/08/19 à 12:51:25

(quote:43074:tazvld) Je ne comprend pas comment avec 1 pixel composé 4 sous pixel dont la surface sera sûrement inférieur à 1 pixel simple on arrive à amélioré la qualité de la photo.Il me semble que le problème à la base, c'est l'aspect aléatoire du nombre de photon qui va frappé le capteur pendant le temps d'exposition. En diminuant la taille du capteur, on augmente la variabilité des mesures : ça crée du bruit. Si sur une surface donnée on a 40 photon qui frappe, qu'est ce que ça nous apporte de plus de savoir qu'il y en a eu 15 en haut à gauche, 7 en bas à gauche, 5 en haut à droite et 13 en bas à droite (il me semble que les capteurs ne sont pas des jolies grilles bien carrées, mais c'est pour l'exemple)? Comment cette information est exploitable ?

Elle est exploitable de la même façon qu'actuellement, en augmentant le nombre de point de mesure, on augmente l'échantillonnage, donc on est plus précis. Raison pour laquelle une image en 480p est plus "grossière" qu'une image en 4k.

En plus ce que tu oublies, c'est qu'on ne raisonne pas en terme de photon uniquement (luminance) mais aussi en terme de couleur (fréquence de la lumière = chrominance), donc chaque sous-pixel ne capte qu'une certaine fréquence lumineuse (souvent derrière un filtre de la couleur voulu), donc en fonction du nombre de "photon" qui vont frapper les sous-pixel R/G/B et de leur nombre (luminance) on va te créer un pixel d'une luminosité X et de couleur R+G+B.

Tu as donc bien à la fin une image plus détaillé, avec plus de pixel (Ie : avec un meilleur échantillonnage de la réalité).

Ps : Pour le nombre de sous-pixel, je pense que tu t'es trompé, il y en as toujours 3 (RGB, adapté à l'oeil humain), le regroupant par 4, c'est pour les pixel, en basse lumiète, 4 pixel vont se comporter comme 1 (tu divise donc ta résolution par 4, mais tu captes 4 fois plus de lumière car la surface d'un "pixel" en fait 4).

Édité par Ramaloke le 12/08/2019 à 12:54
Avatar de Firefly' Abonné
Avatar de Firefly'Firefly'- 12/08/19 à 13:02:44

(quote:43074:tazvld) Je ne comprend pas comment avec 1 pixel composé 4 sous pixel dont la surface sera sûrement inférieur à 1 pixel simple on arrive à amélioré la qualité de la photo

Les capteurs numérique sont "par couleur" donc avant, si un photon rouge touchais une partie du capteur bleu, l'information était perdu. donc on gagne bien en précision sur l'information, le pixel d'à coté va utiliser les informations des capteurs de couleurs adjacence aussi donc statistiquement tu as quand même plus d'information source même si tu sort le même nombre de pixel

Il n'est plus possible de commenter cette actualité.
Page 1 / 2

Votre commentaire

Avatar de lecteur anonyme
Avatar de lecteur anonyme

2000 - 2019 INpact MediaGroup - SARL de presse, membre du SPIIL. N° de CPPAP 0321 Z 92244.

Marque déposée. Tous droits réservés. Mentions légales et contact