Alors, en fait, la quasi totalité des librairies d’IA sont open-source : Tensor Flow de Google, Torch de Meta/Facebook, OpenCV, sans parler de la quantité de projets libres auxquels Nvidia collabore. Donc en fait, l’open-source fait plus que suivre, c’en est le moteur.
Mais quand je vois l’écart entre les performances effectives des IA, testées en conditions réelles, et ce qui est annoncé par le marketing, je pense que les logiciels des années 1980 ont encore de beaux jours devant eux.
J’ai testé les fonctions IA de LR le mois dernier, du style agrandir les yeux ou forcer qqn à sourire, et les résultats sont dégueulasses dès qu’on pousse un peu les curseurs, et de toute façon ça ne marche que pour les portraits de face, pas pour les portraits de profil ou de 3/4.
Ça fait 5-6 ans que je lis la littérature scientifique sur l’IA de traitement d’image, et c’est hilarant.
D’abord parce qu’on appelle IA est généralement pas plus compliqué que des algorithmes d’optimisation évolués, ce qui veut dire qu’un ingénieur (ou une équipe, mais donc des gens) a défini un critère quantitatif de succès et que l’algo va seulement manipuler l’image pour la faire converger vers cette définition arbitraire et chiffrée du succès. Une image ne saurait se réduire à un ensemble de métriques à optimiser.
Ensuite parce que les algos vraiment brillants vont mettre les cartes graphiques haut de gamme à genoux pendant 15 min, et vos ordis sont pas prêts pour ça. Donc il faut bien se dire que ce que propose LR et les copains, c’est finalement des algos connus depuis 20 ans pour lesquels on commence seulement à disposer de la puissance de calcul requise pour avoir des applis “temps réel”. Innovation mon c… (À part pour DxO, mais là on parle de filtres de traitement de signal genre bruit et flou qui sont de la physique de base, pas des filtres jouets pour rendre une femme “baisable” en 3 clics — y a un vrai problème éthique ici).
Pour finir, une intelligence artificielle s’entraîne avec un échantillon de photos “avant” et “après”, à partir desquelles l’algo déduit un comportement attendu. Donc en gros, l’IA ne fait que reproduire des photos moyennes. Du coup, j’espère que vous êtes prêts à avoir les même photos que tout le monde.
À titre perso, j’ai essayé d’entraîner une IA de traitement du langage pour détecter si des phrases sont des questions, comportent des balises spatio-temporelles, etc. en vue de faire un chatbot basique. 30 h de travail (manuel, donc), pour fabriquer un corpus d’entraînement (phrase par phrase) qui me donne à peine 83% de réussite à la fin, avec un algo publié en 1999 et des librairies open-sources prêtes à l’emploi. L’occasion de réaliser à quel point les performances finales de l’IA dépendent de la qualité de l’échantillon d’entraînement. L’IA est un gosse qui répète tout ce qu’on lui dit et ne connaît rien d’autre que ce qu’on lui a dit. Pas d’intelligence là-dedans : on ne fait que détecter des motifs (patterns) récurrents.
Bref, j’ai des copains qui font des thèses en IA dans plusieurs universités, en ce moment, et l’ambiance est au désenchantement. “deep learning” et “neural network” sont des mots-clés qui rapportent des financements, aussi bien en recherche universitaire que dans la startup-nation, donc les recherches intéressantes occupent à peine 1/4 du temps de travail, le reste étant bidonner des articles plus ou moins propres avec les bons mots-clés, de sorte à maintenir le robinet à subvention ouvert.
Voilà, l’IA c’est une mode, mais le roi est nu. Désolé.
Je vais en profiter pour enfoncer une autre porte ouverte.
Le fait que tant d’outils open-source pratiquement prêts à l’emploi existent permet à n’importe qui de créer son IA dans son garage. Je ne connais rien en traitement du langage, en 2 h de programmation et même pas 50 lignes de code j’avais un prototype d’IA fonctionnel pour identifier des phrases à 63 % de fiabilité. J’ai simplement suivi un tuto internet et bidouillé autour…
Pourquoi on n’a pas plus d’IA open-source si les outils sont disponibles et faciles à utiliser ? Parce que l’open-source est très prudent (voire carrément opposé) sur la collecte de données privées, données qui sont primordiales pour entraîner les IA. Pas de données → pas d’échantillon d’entraînement → pas d’IA. Si Adobe a fait migrer tout le monde sur le Cloud vers 2015, ce n’était certainement pas sans arrière-pensée. Ils ont toutes vos photos pour entraîner leurs IA.