J’ai récemment vu plusieurs personnes affirmer qu’il existe des « biais » dans les résultats donnés par l’IA générative. Pour moi, cela n’a pas de sens. L’IA n’a pas d’émotions, n’est pas misogyne, homophobe ou raciste. Certains disent même que si les résultats de l’IA sont biaisés, c’est parce que les personnes qui définissent les algorithmes le sont. Cela reflète une méconnaissance du sujet.
L’IA repose uniquement sur des statistiques, et les statistiques s’appuient sur les données disponibles dans les bases de données (BDD). Il est vrai que l’on pourrait manipuler l’IA, mais ce serait uniquement en polluant les BDD.
Alors, que faire ?
1️⃣ **Nettoyer les BDD des fausses associations** : Ce n’est pas simple et cela pose des questions de neutralité.
2️⃣ **Ajouter des règles pour limiter les résultats obtenus** : Personnellement, je ne pense pas que ce soit une bonne idée et j’imagine mal la neutralité de ces règles.
3️⃣ **Autres solutions ?**
Nous devons savoir utiliser l’IA correctement et avoir conscience que les résultats obtenus ne sont que des reflets statistiques de ce qui est en base de données.
Ce débat me rappelle celui que nous avons depuis 25 ans sur les KPI. J’ai rencontré de nombreux managers qui voulaient que les KPI soient automatiquement retravaillés et interprétés pour être plus pertinents. J’ai toujours été contre car il faut laisser l’humain comprendre et interpréter les résultats des machines. Si nous commençons à demander aux machines de le faire, nous créons une dépendance et appauvrissons le cerveau humain. La machine donne des resultats et c’est à l’humain de les expliquer.
**En conclusion**, en développant l’IA, il est plus urgent que jamais de développer les compétences humaines. Nous devons apprendre à utiliser les outils numériques de manière critique et réfléchie, en comprenant leurs limites et en interprétant leurs résultats avec discernement.