Sujet de réflexion

Quand je vois les avancées de LR et d’autres logiciels commerciaux avec l’Intelligence Artificielle je me demande si l’open-source va pouvoir suivre.
J’ai regardé cette vidéo qui fait le tour des nouveautés, c’est quand même impressionnant :
https://www.youtube.com/watch?v=v9g5XZHrXLQ
Moi qui utilise ART j’ai l’impression d’utiliser un logiciel des années 80. Pas même de module pour faire une bordure d’image ou une signature :slight_smile:
Qu’en pensez-vous ?

1 « J'aime »

Avec LR on finira par se passer d’appareil photo, un smartphone et de l’IA !
Mais est-ce encore de la photo ?
Jean-Louis

2 « J'aime »

M’ouai :face_with_raised_eyebrow:
Je ne suis pas du tout impressionné par cette pseudo prétendue Intelligence.
C’est très Artificiel et surtout devenu très marketing mais à peu près autant crédible que la théorie du triangle des Bermudes.
En l’occurrence je ne vois pas très bien les avancées majeures de cette mouture annuelle de LR.
Sur le fond, ce n’est pour des cas bien précis, qu’une aide au masquage utilisant des algorithmes connus depuis longtemps, masquages paramétriques et dessinés.
Rien de bien nouveau là dedans et pas plus efficace qu’avant, on trouve rapidement sur le Net des youtubeurs moins aficionados d’Adobe pour montrer que les détourages ne sont pas si parfaits que ça.
Quant au nouvel outil de retouche ce n’est qu’une variante équivalente à la retouche darktable “outil algorithme correction” certes pas présent dans ART qui ne possède que la copie.
Là l’intelligence artificielle marketing est derrière le Libre et l’OpenSource.

Philippe, en 1980 si tu développais déjà tes photos, ce dont je ne doute pas, c’est à coup de chimie que te le faisais. L’informatique sortait de sa pré-histoire avec la naissance en 1981 de personalis digital computratum, un petit pas pour IBM un grand pas pour l’informatique Libre.
La route était longue mais elle était devenue libre :wink:
Et son cerveau ! Que d’évolution depuis l’origine et ses prémices de 1969, nous retrouvons encore aujourd’hui dans le noyau du code génétique de l’ancêtre commun, le fameux Unix.

Qu’Adobe occupe une poignée de ses 21 357 salariés (2018) pour compléter LR de fonctions “raccourcis” de sélections très fréquemment utilisées ne m’étonne pas plus que ça, mais il faut relativiser les forces en présences, presque une poignée chez ART, quelques centaines chez RT ou dt en comptant très large. Mais pas si largué que ça.

Et puis le développement c’est comme la photo.
Elle est exceptionnelle pas parce-que tu as le dernier APN à la mode truffé des toutes dernières avancées technologiques assorti d’un manuel long comme une nuit sans fin, un peu plus si devant tu lui mets un caillou à peu près correct, énormément par celui qui appuis sur le déclencheur.
Mais lui son intelligence est faite de capacités cognitives qui lui confèrent un QI > 0
C’est encore lui qui saura produire avec son application une photo agréable voire artistiquement supérieure à une autre, pas l’application.

Néanmoins on peut applaudir l’équipe de développement d’Adobe pour avoir réussit à coder comment trouver la localisation du ciel dans une photo, maintenant que j’y pense, mais c’est bien sûr… en haut. Sauf qu’il ne comprend pas que le reflet dans l’eau c’est aussi du ciel, un gamin de primaire le comprendrait de lui même.

L’IA c’est du pipeau.

1 « J'aime »

Bonjour,
Je ne suis pas sûr que l’IA soit du pipeau, mais je crains plutôt une normalisation des photos avec des retouches quasi-automatiques. Ce qui peut être risible c’est la tentation qu’auront alors les utilisateurs de dégrader leurs images (vignettage, grain artificiel, colorimétrie, …) toute chose pour nous faire croire que c’est de l’artisanat.
Ce qui compte c’est bien évidemment l’oeil du photographe, son ressenti et comment il s’en rapproche en produisant un résultat pour les écrans ou pour le papier.
Je reste donc dans l’imperfection de ART ou DT… en faisant des choix et des “à-peu-près”… qui me conviennent.

Sur le sujet de l’IA de quoi faire ton opinion.
Les mots ont un sens, dans ce cas quelque peu usurpé… le marteler à tout bout de champ comme c’est le cas actuellement c’est une machine à fabriquer des idées reçues.

La normalisation n’est pas une affaire d’application mais de tendance ou de mode, il suffit d’aller faire un tour sur flickr pour ce rendre compte que les développements (quant-on a à faire à des photos retouchées) ont poussés dans les derniers retranchement les sliders des modules de retouche dans bien des cas. Bien que le style HDR ++++ commence à décliner.

Je n’ai rien contre les logiciels proprio, celui en question est plutôt intuitif, offre des outils attendus des utilisateurs… et sélectionner un ciel, un visage, la pupille d’un œil ou supprimer l’intrus indésirable proprement venant gâcher un de ses beaux clichés sont des actions très courantes.

Je voulais simplement faire remarquer à Philippe que même si l’ensemble est bien emballé dans une promotion marketing efficace et relayé par autant d’influenceurs fidèles à faire du placement de produit, LR ou les autres produits d’Adobe ne sont pas tant éloignés ni supérieures que ça des applications Open Source.

Ensuite chacun devrait choisir les applications selon ses besoins.
Vouloir absolument trouver l’application sachant produire l’image la plus fidèlement proche de ce que sait faire le boîtier et une idiotie si l’on cherche du coté des dématriceurs. Quantité d’appli libre ou pas n’ont pas besoin du raw pour redresser, travailler la colorimétrie, supprimer l’intrus gênant, sélectionner efficacement voire changer ce ciel tout blanc par un autre bien plus sympa … ce que ne sait pas faire LR, ART ou dt
Si on est satisfait du JPEG de son boîtier pourquoi se compliquer la vie.

Si on estime que le JPEG proprio ne va pas assez loin, ou trop, ou pas suffisamment bien alors on a le choix.
De celui qui va à l’essentiel de façon intuitive, qui ne fera pas tout, suffisamment pour couvrir les principaux besoins mais qui ne nécessitera pas six mois d’auto formation intensives. ART par exemple.
A celui qui est capable de maîtriser tous les aspects d’une photographie avec des modules très techniques dont la prise en main nécessite une bonne période d’apprentissage et une utilisation quasi permanente pour les piloter du bout du clic ou du raccourcis clavier.
J’ai été qq temps sans toucher à dt… il m’a fallut une petite période de remise en forme.

C’est un peu comme les distri Linux.
Ceux qui n’ont besoin que d’un OS fiable, mis à jour sans prise de tête (donc rolling, « Install Today. Updates Forever ») avec une logithèque classique sachant ouvrir et utiliser la plupart des types de fichiers utiliseront probablement SolusOS
Ceux qui aiment bien les commandes en consoles (et encore que) viseront dans le même esprit une Manjaro Linux.
Les plus geeks et passionnés d’informatique se construiront à partir de rien ou pas grand chose une ArchLinux, ils seront occupés déjà un bon bout de temps avant de se mettre à la compilation à la mimine de la dernière version de dt.

Vi je sais je n’ai pas mentionnés de distributions à la mode, mais il n’y a pas de réelles rolling parmi elles.

J’rigole mais ce n’est pas loin de la réalité :rofl:

L’approche des logiciels vis à vis de leur utilisateurs est toujours un sujet intéressant sur le fond. C’est d’ailleurs de cette réflexion que le développement d’ART est issu de RAWTHERAPEE.
Mais pour que cette réflexion ne soit pas biaisée je t’encourage à lire cet article jusqu’au bout

“Les plus geeks et passionnés d’informatique se construiront à partir de rien ou pas grand chose une ArchLinux, ils seront occupés déjà un bon bout de temps avant de se mettre à la compilation à la mimine de la dernière version de dt.”

PS - même si ce n’est pas le sujet de l’échange - après avoir passé pas mal de temps à faire des installations “à la mano et aux petits oignions” d’archlinux sur les précieux conseils de FredBeziez je ne peux qu’encourager ceux qui voudrais voir si l’herbe est plus verte sous arch linux à se laisser tenter par Francais – EndeavourOS (auquel Fred contribue activement).

Pas faux alain_gre, j’aurais pu citer Endeavour, qui cartonne à juste titre.
M’enfin ce n’est pas le sujet ici et j’en arrêterais là pour ne pas spamer le thème du fil.

Très bon billet d’Aurélien, sauf que tout le monde n’a pas le cursus permettant son expertise, moi le premier, il nous la partage et nous l’explique c’est déjà très appréciable.
Sur le fond ses arguments tiennent la route, il a bien sûr raison mais pour l’utilisateur final ce qui compte c’est le résultat pas forcément le moyen technique d’y arriver, il n’est en contact qu’avec l’interface.

ART est une très bonne idée brillamment mise en œuvre, et encore que je supprimerais “Compression de la Plage Dynamique” l’ajout d’un cadre bordure serait plus utile (c’est un autre débat), quant au filigrane quel intérêt à part l’exposition en salle.
dt semble suivre un double objectif, homogénéisation du concept RVB (méthode linéaire) et réduction à quelques modules rationnels pour traiter l’image… en fait Aurélien réécrit dt de fond en comble ces modules et si filmique aura fait jaser à ses débuts les modules réécrits qui l’accompagnent maintenant font de l’ensemble une application se hissant sur le dessus du panier.

Dans cet esprit, “l’interface en contact avec l’utilisateur se doit d’être simple et les algo qui moulinent derrière efficients”, L’Alberto a pris une longueur d’avance, il lui a fallut forker pour ça.
Tentation de fork qui était grande du coté d’Aurélien, bon il l’aura fait par l’intérieur c’est plus long car il y a la palabre et pas encore finit, et le niveau d’exigence il l’a placé haut… peut-être aurait il gagné du temps à forker plus tôt.

Jai lu cet article d’Aurélien avec intérêt. J’ai un avis nuancé sur son propos. Personnellement je prends youtube comme une grande cour de récréation où chaque youtubeur montre ce qu’il sait faire. Qu’il le fasse bien ou mal n’a qu’une importance relative puisque chacun sait que les réseaux sociaux trainent le meilleur comme le pire. Que la “débutocratie” s’exprime par ces canaux récréatifs n’est pas un souci. Pour les photographes désirant bien se former il y a des cours payants qui, je l’espère, sont d’un autre niveau que la vidéo youtube de Robert59 ou lulu71.

D’accord avec vous jaco quand vous dites : “l’interface en contact avec l’utilisateur se doit d’être simple et les algo qui moulinent derrière efficients”. J’ai utilisé Darktable depuis ses débuts, la version 0.5 je crois. Jusqu’à la version 2.6 ce logiciel répondait à mes besoins de photographe amateur travaillant sur un portable ayant du mal à afficher 96% de l’espace colorimétrique sRVB après calibration. Darktable était simple à comprendre et à manipuler même si la venue de filmique fut une épreuve. Et puis le logiciel s’est doté de modules de plus en plus complexes aux noms de curseurs esotériques. J’ai ressenti, petit à petit, un sentiment désagréable de “dépossession”. J’ai vraiment eu du mal à passer de Darktable à ART. J’ai regardé dix mille fois les vidéos de carafife sur ce logiciel pour réduire ma courbe d’apprentissage. Il y a des choses qui ne me plaisent pas dans ART mais il répond à peu près à mes besoins courants de développement d’images raw tout en restant simple et agréable à utiliser.

1 « J'aime »

Je ne peux que plussoir Philippe, et ce n’est pas le schisme estival au sein de l’équipe des dèv de dt qui va arranger les choses pour son avenir, dans une direction élitiste, plus abordable ou les deux à la fois.

Les deux peuvent cohabiter de mon point de vue, à l’exemple du module débruitage qui offre soit une interface simplifiée soit une interface “experte” Il me semblait que c’était la feuille de route de la refonte et l’abandon des modules devenus obsolètes une fois remplacés, la radicalisation des deux obédiences s’enfermant dans leur bulle de certitudes en aura décidé autrement, espérons que les esprits se calment.

Sujets hautement polémiques où la moindre virgule mal placée peut déclencher une épidémie de trolls.

Je suis d’accord avec toi. J’ai utilisé DT il y a qqs années en // avec RT.
J’avais trouvé DT trop compliqué dans son interface et dans ses traitements pour moi pour le type de photo que je fais, famille, voyages, sans prétention artistique. Je n’ai pas eu le courage de m’adapter aux derniers développements. C’est certainement dû à l’age ! :face_holding_back_tears:
DT me semble adapté aux personnes qui réalisent ou aspirent à réaliser des photos artistiques et prennent le temps de tester les différentes possibilités de traitement et d’en discuter longuement et savamment sur Pixls. Quelqu’un qui m’a impressionné dans son utilisation de DT est Boris Hajdukovic (S7habo sur pixls) qui a produit de très beaux résultats sur les playraw en utilisant des traitements qui m’ont toujours étonné par leur sophistication.

ART est effectivement plus abordable, mais ne nous y trompons pas, on peut faire des traitements sophistiqués avec (dodge&burn, ASC/CDL color grading, masquages complexes…)

Pour l’IA en photo, je pense que c’est sur les smartphones que l’on en verra les bénéfices le plus rapidement. Mon gendre a acheté très récemment un iphone 14 pro et je suis bluffé par la qualité des jpg qui sortent de la boite (corrections des lentilles, couleurs, basses lumières, débruitage, netteté, HDR…). Ça sort aussi les photos en Proraw mais il n’a pas été motivé pour essayer vu la qualité des jpg.

1 « J'aime »

Pour l’IA en photo, je pense que c’est sur les smartphones que l’on en verra les bénéfices le plus rapidement.

Bénéfices !
Pour le coup je rejoins l’avis de JMarcP et ce qu’il appelle “normalisation des retouches” que je qualifierais de pré-mâché.
Le risque, ce n’est même plus un risque c’est fait, le smartphone a supplanté l’APN compact à capteur < au 4/3.
Dont beaucoup se contentaient du résultat pour de la photographie “souvenir” et de temps à autres pour des styles plus typés, paysages, portraits, archi, rue… etc.
Sauf que l’IA n’est ici présent que pour contourner les faiblesses matérielles imposées par la petitesse de l’ensemble optique/capteur.
Cette IA (Imitation Approximative), je le reconnais est bluffante pour simuler un bokeh, un diaph physique, une stabilisation ou une pause suffisante pour capturer la voie lactée sans trépied. (un mixte entre du focus stacking dont le focus est retiré et de l’empilement HDR, il faut quand même ne pas trembler, la stabilisation logicielle ayant ses limites)
Reste que le développement du DNG est des plus basiques et je n’ai pas l’impression d’utiliser une application moyenâgeuse quant-il m’arrive (rarement) de développer un DNG de mon Google Pixel, aussi bien avec ART ou dt.

Du reste si je suis ici c’est plus dans cet esprit, j’ai un ami qui possède un Sony DSC-HX90V essentiellement pour faire de la photo “souvenir”, pour autant les résultats sont loin d’être ridicules (jpg uniquement). Il se trouve qu’il a le coup d’œil, le don du cadrage, de l’instant T et quelques unes mérites d’être traitées avec un peu plus de soin, il n’a besoin que d’une petite appli simple.

Il cherchait depuis des lustres une appli Linux pour remplacer la dernière Windows lui imposant l’installation d’un fake crosoft avec Wine, j’ai nommé PhotoFiltre.

Il a bien essayé de se mettre à Gimp… qui n’a rien d’une appli typée “photo” … pour lui la gestion des calques est une horreur, pourquoi Exposition ou Tons Sombres et clairs sont dans le menu “Couleurs” me dit-il et il n’a que faire des 80 à 90% des filtres et autres modules présents.

La seule qui remplisse tous les critères dont il a besoin et pas plus, c’est ART… et encore que travaillant uniquement des JPEG une grosse partie est inaccessible, ou peu opérante voire inutile.

ART …/… on peut faire des traitements sophistiqués avec .

Bien sûr, rien n’interdit de détourner un module de sa fonction première, Alberto l’encourage et c’est souvent sa porte de sortie pour retoquer une demande de module en montrant comment le faire.
Boris est passé maître dans ce domaine avec dt, sa chaîne YT est un régal, les Editing Moments sont un régal surtout les moins typés “tuto” avec juste une musique de fond sympa.
Mais les développements suivent parfois (souvent) des manipulations pas très orthodoxes des modules, je m’en inspire qq fois, adieu le mixeur de canaux couleurs imbuvable grâce à lui il ne me servent plus à rien.

Je suis assez d’accord avec ce que tu dis, mais il y a bénéfice pour tous ces millions de gens qui prennent des milliards de photos avec leurs smartphones. Mon gendre est comme to ami, il a le coup d’oeil, mais il ne veut absolument pas passer de temps à faire du post traitement. Pour avoir des résultats pareils à la sortie de l’iphone, les traitements doivent être vraiment costauds en plus du capteur principal de 48Mpixels.
Apres ils proposent des sorties en Proraw pour le post traitement mais je ne sais pas de quoi il s’agit.

Oui, c’est absolument sa philosophie, pourquoi créer une nouvelle fonction si on peut faire avec une fonction existante. C’est bien pour ça qu’il a supprimé des tas de fonctions existant dans RT.
Plutôt que de détournement, je parlerais de “façon astucieuse” d’utiliser les traitements, effectivement comme Boris avec DT.

Si tu suis Boris sur sa chaine et que tu appliques, c’est vraiment que tu es du côté des photographes exigeants sur l’aspect artistique et original. DT est pour toi! :wink:
Moi, j’ai du mal à le suivre, mais, comme tu dis, c’est un régal.

Ce(s) bénéfice(s), j’en suis d’accord, mais comparer smartphone et APN, c’est torchons vs serviettes… les deux essuient. La comparaison s’arrête là. Sinon

  • Un smartphone toujours dans la poche, même basique c’est toujours mieux que le Full Frame resté à la maison.
  • Contrairement aux idées reçues, des optiques de guedins et lumineuses (relativement), plus c’est petit, plus c’est facile à maîtriser optiquement, moins c’est cher à fabriquer.
  • Avec la débauche de pixels maintenant techniquement possible sur de si petites surfaces, ça laisse du champ pour cropper… donc du champ pour cadrer, car l’ergonomie de prise en main reste du registre savonnette.
  • Jamais il n’y aura eu autant de gens à faire de la photo, qui de toutes façons n’auraient jamais fait la démarche sans smartphone. Il y en aura forcement qui se découvriront une passion.
  • Excellente école que d’avoir une focale fixe… en plus celle des smartphones tourne aux ~ du 28 mm équiv 24x36… un angle de champ à (presque) tout faire.

Une liste non exhaustive, oui, les smartphones bénéficient à la photo de ce point de vue.
Mais ils n’ont toujours pas su montrer leur supériorité technique, ils ne le pourront pas sauf à revoir les lois de la physique ou de l’optique.
Quant-à l’IA qui les pilotes il n’y a rien qui interdit de l’implanter dans un APN, les ingés des constructeurs ne s’en privent pas. Ce n’est pas ça qui fera la différence.

Je n’ai emprunté à Boris que quelques petites astuces comprises mais ses travaux sur la couleur avec “channel mixer”, la théorie oui, la mise en pratique c’est nada.

Alors, en fait, la quasi totalité des librairies d’IA sont open-source : Tensor Flow de Google, Torch de Meta/Facebook, OpenCV, sans parler de la quantité de projets libres auxquels Nvidia collabore. Donc en fait, l’open-source fait plus que suivre, c’en est le moteur.

Mais quand je vois l’écart entre les performances effectives des IA, testées en conditions réelles, et ce qui est annoncé par le marketing, je pense que les logiciels des années 1980 ont encore de beaux jours devant eux.

J’ai testé les fonctions IA de LR le mois dernier, du style agrandir les yeux ou forcer qqn à sourire, et les résultats sont dégueulasses dès qu’on pousse un peu les curseurs, et de toute façon ça ne marche que pour les portraits de face, pas pour les portraits de profil ou de 3/4.

Ça fait 5-6 ans que je lis la littérature scientifique sur l’IA de traitement d’image, et c’est hilarant.

D’abord parce qu’on appelle IA est généralement pas plus compliqué que des algorithmes d’optimisation évolués, ce qui veut dire qu’un ingénieur (ou une équipe, mais donc des gens) a défini un critère quantitatif de succès et que l’algo va seulement manipuler l’image pour la faire converger vers cette définition arbitraire et chiffrée du succès. Une image ne saurait se réduire à un ensemble de métriques à optimiser.

Ensuite parce que les algos vraiment brillants vont mettre les cartes graphiques haut de gamme à genoux pendant 15 min, et vos ordis sont pas prêts pour ça. Donc il faut bien se dire que ce que propose LR et les copains, c’est finalement des algos connus depuis 20 ans pour lesquels on commence seulement à disposer de la puissance de calcul requise pour avoir des applis “temps réel”. Innovation mon c… (À part pour DxO, mais là on parle de filtres de traitement de signal genre bruit et flou qui sont de la physique de base, pas des filtres jouets pour rendre une femme “baisable” en 3 clics — y a un vrai problème éthique ici).

Pour finir, une intelligence artificielle s’entraîne avec un échantillon de photos “avant” et “après”, à partir desquelles l’algo déduit un comportement attendu. Donc en gros, l’IA ne fait que reproduire des photos moyennes. Du coup, j’espère que vous êtes prêts à avoir les même photos que tout le monde.

À titre perso, j’ai essayé d’entraîner une IA de traitement du langage pour détecter si des phrases sont des questions, comportent des balises spatio-temporelles, etc. en vue de faire un chatbot basique. 30 h de travail (manuel, donc), pour fabriquer un corpus d’entraînement (phrase par phrase) qui me donne à peine 83% de réussite à la fin, avec un algo publié en 1999 et des librairies open-sources prêtes à l’emploi. L’occasion de réaliser à quel point les performances finales de l’IA dépendent de la qualité de l’échantillon d’entraînement. L’IA est un gosse qui répète tout ce qu’on lui dit et ne connaît rien d’autre que ce qu’on lui a dit. Pas d’intelligence là-dedans : on ne fait que détecter des motifs (patterns) récurrents.

Bref, j’ai des copains qui font des thèses en IA dans plusieurs universités, en ce moment, et l’ambiance est au désenchantement. “deep learning” et “neural network” sont des mots-clés qui rapportent des financements, aussi bien en recherche universitaire que dans la startup-nation, donc les recherches intéressantes occupent à peine 1/4 du temps de travail, le reste étant bidonner des articles plus ou moins propres avec les bons mots-clés, de sorte à maintenir le robinet à subvention ouvert.

Voilà, l’IA c’est une mode, mais le roi est nu. Désolé.

Je vais en profiter pour enfoncer une autre porte ouverte.

Le fait que tant d’outils open-source pratiquement prêts à l’emploi existent permet à n’importe qui de créer son IA dans son garage. Je ne connais rien en traitement du langage, en 2 h de programmation et même pas 50 lignes de code j’avais un prototype d’IA fonctionnel pour identifier des phrases à 63 % de fiabilité. J’ai simplement suivi un tuto internet et bidouillé autour…

Pourquoi on n’a pas plus d’IA open-source si les outils sont disponibles et faciles à utiliser ? Parce que l’open-source est très prudent (voire carrément opposé) sur la collecte de données privées, données qui sont primordiales pour entraîner les IA. Pas de données → pas d’échantillon d’entraînement → pas d’IA. Si Adobe a fait migrer tout le monde sur le Cloud vers 2015, ce n’était certainement pas sans arrière-pensée. Ils ont toutes vos photos pour entraîner leurs IA.

Merci @aurelienpierre de nous remettre les pieds sur terre et de nous faire part de ton expérience. Effectivement, la taille et la qualité du corpus de données est certainement la tres grosse difficulté de la mise en oeuvre de ces réseaux de neuronnes.

Ce n’est pas la première vague d’IA. Vers les années 80, je travaillais à Cadarache et je me souviens qu’il y avait des informaticiens formés à l’Université de Luminy qui réalisaient des projets d’IA. Je crois que l’objectif était de faire du diagnostic industriel (système expert) en utilisant PROLOG. Il y avait une grande effervescence à l’époque, car les Japonais avaient déclaré qu’ils lançaient un grand plan IA basé sur PROLOG.
L’effervescence a dû là aussi retomber.
Vers les années 80, je crois me rappeler qu’il y a eu un regain d’intérêt pour les réseaux de neurones dans les milieux académiques, mais à l’époque, vu les capacités de calcul, la perspective d’une quelconque application pratique paraissait lointaine.

J’ai parlé avec Auréline pendant l’anniversaire de Digit-Photo, j’ai fait quelques approches au CAMOS de Metz (centre associé au CNAM) j’ai un peu travaillé des algorithimes d’I.A. avec Lisp. Tant qu’il faut travailler avec des bases de faits et des recherches dans ces bases, il y a beaucoup d’algorithmes mais quand il faut construire une base de connaissances et faire de l’auto-apprentissage, c’est une autre paire de manches.

N’étant pas spécialiste informatique je vous crois sur parole. Même si l’IA n’est pas la panacée c’est quand même une aide au développement. Voir cette vidéo :
https://www.youtube.com/watch?v=AtEeo3-bmCs
Je crois que s’exprime ici une difference entre les certitudes des gens du métier et ce que pourraient souhaiter les utilisateurs d’un logiciel qui, comme moi, ignorent ce qu’il y a “sous le capot”.

En fait, c’est comme d’habitude, il faut préciser ce qu’on appelle “photographe”.

Déjà au temps de l’argentique, il y avait les photographes qui donnaient leurs négatifs à développer au labo 1h, et puis il y avait ceux qui développaient puis tiraient eux-mêmes dans leur salle de bain, voire dans un labo maison.

Traduit à l’époque du numérique, ça donne d’une part des gens qui s’attendent à ce que le logiciel remplace magiquement un technicien de labo formé, entraîné et adaptable, et d’autre part ceux qui ont envie de rester les auteurs de leurs photos en contrôlant eux-même le processus.

C’est une différence philosophique qui amène à des choix techniques complètement différents. Pour ceux qui veulent contrôler le traitement, l’IA c’est niet.

Sauf que les deux catégories de photographes ont tendance à ignorer l’autre et à se considérer seul au monde, donc toute discussion de ce type est stérile. S’il y a bien une chose que j’ai apprise en fréquentant les utilisateurs de logiciels, c’est que chacun se croit l’archétype de l’utilisateur moyen et considère son utilisation comme absolument standard.

À chaque usage le meilleur outil.

Mais comme la majorité du marché est faite de gens qui ont envie de s’amuser sans s’investir dans un apprentissage, faut pas s’étonner que les éditeurs commerciaux investissent là où c’est juteux. Dès la fin du XIXe, monsieur Eastman avait compris que le poignon se trouvait dans les classes aisées qui voulaient s’amuser… Le premier point & shoot de l’histoire, c’était le Bullseye de chez Boston Cameras (1890-95, de mémoire), entreprise rachetée par Eastman-Kodak à la fin des années 1890.

Maintenant, est-ce que les tendances commerciales sont un exemple à suivre pour le libre ? Je poserais la question autrement : quel est l’intérêt de tenter de copier des logiciels commerciaux sans avoir le début du commencement de leur ligne budgétaire ?

On vit une époque formidable où ceux qui ne veulent pas apprendre peuvent toujours payer quelque chose ou quelqu’un pour faire le boulot à leur place. La seule constante, c’est qu’à la fin, tout se paie.

Le mauvais choix, c’est celui qui va à l’encontre de tes priorités. Et malheureusement, beaucoup de gens se lancent dans la retouche de RAW sans avoir la moindre envie de s’intéresser à ce qu’ils font… Je rappelle que les appareils photos ont un mode JPEG qui produit des résultats plus que décents… Et vous l’avez déjà payé.

Et à mon avis, l’intérêt du libre c’est précisément de pouvoir fournir des outils à tous ceux qui ne se reconnaissent pas dans l’approche tout-automatique, sans être économiquement contraint de choisir le marché le plus rentable.

Parce que, bon, quand chaque utilisateur de ce forum filera 12 €/mois à un projet de logiciel photo libre, on commencera à discuter, mais jusqu’à présent le libre c’est d’abord la secte des radins malins.

2 « J'aime »