Si l’utilité des intelligences artificielles est incontestable, elles ne sont pas parfaites pour autant. En effet, elles affichent certaines limites dont certaines, il faut le dire, sont pour le moins étranges. Par le passé, Google plus, Google images ou encore Google translate, ont affiché un certain nombre de failles. Aujourd’hui, c’est au tour du détecteur de langage haineux d’être au centre des débats. Éclairages
Les limites d’une « intelligence » sensée remplacer l’homme
Afin de protéger les populations les plus susceptibles d’être touchées par la haine sur la toile, Google a mis au point un certain nombre d’outils basés sur l’intelligence artificielle. L’initiative, il faut l’avouer, est pour le moins louable, surtout quand on prend en compte le fait que les inégalités sociales et autres faits de racisme ont dernièrement le vent en poupe. Mais d’après une étude menée à l’université de Washington, la réalité est tout autre. En effet, la notation par les humains d’une base de données contenant 100000 tweets dont s’était servi l’algorithme de Google a révélé que les tweets contenant “l’argot” propres aux afro-américains étaient considérés comme offensants.
En se servant d’une base de données contenant un nombre plus élevé de tweets, (5,4millions très exactement) la même étude a mis à jour le fait que l’algorithme avait sensiblement 2 fois plus de chances, de ranger les tweets émanant des afro-américains, dans la case des propos offensants. En cas de modération automatisée, ceci pourrait entraîner de vastes censures ethniques. Il est facile d’imaginer l’indignation qui en découlerait.
Une genèse datant de la reconnaissance faciale
Les outils dédiés à la reconnaissance faciale avaient déjà mis en lumière ce problème pour un échantillon essentiellement composé de personnes blanches. Il faudra donc attendre pour inculquer aux intelligences artificielles, la notion d’équité.