Bonjour
Suite à lecture de cet article
J’ai voulu voir le projet GitHub - martin-marek/hdr-plus-swift: Night mode on any camera. Based on HDR+. qui si j’ai bien compris est un portage d’une application (hdr+) disponible sur les smartphone googlepixel
Malheureusement je n’ai pas de machine qui tourne sous mac ni de google pixel sous la main
Quelqu’un(e) l’aurait 'il testé ?
L’approche de HDR+ n’est pas un celui d’un braketing d’expostion mais la fusion d’une rafale d’image à exposition constante d’après ce que j’ai pu comprendre avec google translate :
les caméras des téléphones ont de petites ouvertures, ce qui limite le nombre
de photons qu’ils peuvent recueillir, conduisant à des images bruitées en basse lumière.
Ils ont également de petits pixels de capteur, ce qui limite le nombre de
électrons que chaque pixel peut stocker, ce qui entraîne une plage dynamique limitée. nous
décrire un pipeline de photographie informatique qui capture, aligne,
et fusionne une rafale d’images pour réduire le bruit et augmenter la dynamique
intervalle. Notre système possède plusieurs caractéristiques clés qui contribuent à le rendre robuste
et efficace. Premièrement, nous n’utilisons pas d’expositions entre crochets. Au lieu,
nous capturons des cadres d’exposition constante, ce qui rend l’alignement
plus robuste, et nous avons réglé cette exposition suffisamment bas pour éviter de souffler
sur les faits saillants. L’image fusionnée résultante a des ombres nettes et
profondeur de bits élevée, nous permettant d’appliquer un mappage de tonalité HDR standard
méthodes. Deuxièmement, nous partons des images brutes de Bayer plutôt que
les trames RVB (ou YUV) dématricées produites par le matériel
Processeurs de signal d’image (FAI) courants sur les plates-formes mobiles. Cette
nous donne plus de bits par pixel et nous permet de contourner les FAI
cartographie des tons indésirables et débruitage spatial. Troisièmement, nous utilisons un roman
Algorithme d’alignement basé sur FFT et filtre de Wiener hybride 2D/3D
pour débruiter et fusionner les images en une rafale. Notre mise en œuvre
est construit sur l’API Camera2 d’Android, qui fournit par image
le contrôle de la caméra et l’accès aux images brutes, et est écrit dans le
Langage halogéné spécifique au domaine (DSL). Il tourne en 4 secondes sur
périphérique (pour une image de 12 Mpix), ne nécessite aucune intervention de l’utilisateur, et
Expédié sur plusieurs téléphones portables produits en série