Darktable 3.81

La nouvelle version de Darktable est très intéressante surtout le module diffusion ou netteté,
un bon tuto en français :

Les options de préréglage sont déjà bien utiles et faciles d’utilisation, mais les experts sauront utiliser les nombreux curseurs pour régler leurs images aux petits oignons . :student: :woman_student:

J’adore darktable et avec Art, on a deux soft libres et fantastiques. Mais je trouve que diffusion et netteté est assez caractéristique de l’approche d’Aurelien Pierre : quand tu regardes la dénomination des curseurs, ça me laisse assez dubitatif. Heureusement les presets sont nombreux et aident vraiment. Après je touche les curseurs, presqu’au petit bonheur, et je regarde. Parfois ça marche, parfois… heu non.
au final, c’est un beau module, complexe, qui peut être hyper gourmand en ressource, et qui en remplace bien d’autres paraît-il.
Il y a dans un compétence photo tout un article dessus, vraiment bien foutu.

Aurélien est venu à développer dans darktable car il n’a pas trouvé un développeur C pour implanter la déconvolution dans darkable, après on aime ou pas son boulot, il faut lui reconnaître d’avoir apporté un nouvelle approche du traitement des photos.
Le tuto conseille est super bien fait pour une approche simplifié de ce module. Je dois dire que souvent, je ne me sers que des présets qui sont déjà très efficace.

Salut jpg54,
quand je relis mon message, je m’aperçois que je me suis mal fais comprendre : on est tout à fait d’accord sur le travail d’Aurélien dans Darktable, et je me sers d’ailleurs alternativement de Art et de darktable en fonction de mes envies !
C’est juste que la dénomination des curseurs dans le module est assez obscure, mais je sais aussi que c’est à moi d’aller au fond des choses et d’apprendre de quoi il s’agit, ou de n’utiliser que les presets qui sont en effet très efficaces et constituent une bonne base.

Je sais et j’ai essayé fort.

Faut comprendre que ça fait depuis 2017 que je bosse sur des méthodes de défloutage. C’est un problème velu parce que ça revient à estimer de manière totalement calculatoire l’image parfaite telle qu’elle aurait été capturée si elle n’avait pas été déformée par un objectif, mais sans connaître la nature exacte du flou ajouté par l’objectif. La NASA profile ses systèmes optiques et caractérise totalement le flou, ce qui permet une correction beaucoup plus simple. En photo, on n’a pas ces ressources.

À la base, le module diffusion servait à ne faire que de la diffusion. Je l’avais développé pour faire baver l’image dans le bord blanc, comme de l’aquarelle. Pour ça, j’ai détourné les mathématiques du transfert de chaleur (puisque c’est de la diffusion dans les deux cas, comme des pigments qui se propagent dans les fibres du papier mouillé) et je les ai modifiées pour une approche multi-échelle utilisant les ondelettes.

Et puis j’ai eu l’idée de changer le signe du terme diffusif pour accentuer la netteté et/ou le contraste local au lieu de diffuser (la diffusion étant un type de flou). C’est pour ça que le signe de la vitesse change l’effet du filtre.

Maintenant, quel est le sens “pratique” ou le rapport “avec la vie de tout les jours” d’une équation de transfert thermique appliquée dans une image dans le domaine des ondelettes ? Jusqu’à présent, personne n’a répondu à cette question.

Reste que les résultats que permet ce module sont meilleurs que tout ce que j’ai pu tester depuis 2017, avec un temps d’exécution largement plus réduit (la déconvolution aveugle, c’est vite 15 minutes de calcul – totalement irréaliste pour du traitement temps réel).

Le maximum que je peux faire, c’est proposer des presets. Sinon, l’autre solution, c’est acheter des objos plus nets, faire la mise au point correctement, et ne pas sortir par temps brumeux.

Mais les gens sous-estiment à quel point faire des trucs simples, c’est difficile, surtout quand ça mobilise des maths qui n’ont plus aucun lien avec la vie pratique. À un moment, il faut accepter qu’on travaille avec des abstractions et qu’on n’a pas vraiment le choix pour résoudre ce type de problème.

Surtout qu’il faut bien se dire que, si c’était facile, ça aurait été réglé depuis longtemps. Or on s’est tous rendus compte que les petits curseurs “netteté” ou “contraste local”, ça finit assez vite par donner des résultats peu crédibles et ça ne “marche” que lorsqu’en modère l’effet. Ce qui veut dire que ça ne marche pas.

Merci Aurélien pour cette explication du module “diffusion et netteté” donc les pré-sets sont très efficaces. Il y a aussi les filtres guidés, c’est pas directement visible mais sacrément efficace notamment dans le module “égaliseur de ton” et que généralise dans d’autres modules sans parler du flux de travail relatif à la scène qui introduit un traitement RVB linéaire qui permet de se libérer des traitements Lab.