Nous utilisons des cookies sur nos sites web. Des informations sur les cookies et sur la manière dont vous pouvez vous opposer à leur utilisation à tout moment ou mettre fin à leur utilisation sont disponibles dans notre Déclaration de protection des données.
Oui, l'intelligence artificielle souffre d'un problème de diversité
Applications IA 3 min de lecture 6 Commentaires

Oui, l'intelligence artificielle souffre d'un problème de diversité

AI Now, un institut de recherche qui examine l'impact social de l'intelligence artificielle, vient de publier une étude dans laquelle il diagnostique l'industrie de l'intelligence artificielle avec une "crise de la diversité". Avec ce diagnostic, l'étude aborde des questions que nous ne nous étions probablement pas posées auparavant en réfléchissant au développement de ces nouvelles technologies.

L'étude elle-même s'intitule "Disciminating Systems" et peut être lue dans sa version originale anglaise via ce lien. Selon les conclusions de l'étude, plusieurs lacunes ou insuffisances dans le domaine de l'intelligence artificielle sont signalées. 

Crise de la diversité des genres et des races dans le secteur de l'IA

 "L'inégalité dans l'industrie de l'IA est extrême". 80% des enseignants d'IA sont des hommes, et seulement 18 % des auteurs des conférences pertinentes dans le domaine sont des femmes. Le département de recherche sur l'intelligence artificielle de Facebook ne compte que 15 % des femmes et celui de Google seulement 10 %. Il n'existe pas de données publiques sur la profession des personnes trans ou d'autres minorités sexuelles.

Pour les personnes de couleur, la situation est encore pire. Par exemple : seulement 2,5% des travailleurs de Google sont des personnes de couleur, alors que chez Facebook et Microsoft, le chiffre n'atteint que 4%. Compte tenu des décennies de travail et d'investissement pour renverser ce type d'inégalité, la situation est alarmante.

AndroidPIT 16 9 shutterstock 622521101
L'industrie de l'IA est largement dominée par les hommes blancs. © AndroidPIT

Bien entendu, le rapport fait un certain nombre de suggestions pour améliorer la situation actuelle. Par exemple : les entreprises pourraient améliorer leur transparence en publiant des rapports sur le travail et sa compensation financière, ventilés par race et par sexe. La publication de rapports de transparence sur le harcèlement et la discrimination est également suggérée.

Eh bien, même avec l'exposition de ces problèmes et suggestions, l'approche reste dans le domaine de l'abstraction, mais a des conséquences très claires dans la vie quotidienne et dans l'utilisation quotidienne des différentes technologies. Par exemple, le domaine de l'homme blanc peut influer sur les réalisations conçues pour la reconnaissance faciale, ce qui a des répercussions sur les groupes historiquement marginalisés. Par exemple, l'utilisation d'un programme pour deviner l'orientation sexuelle des gens à l'aide d'un système de reconnaissance faciale, une expérience menée par des chercheurs de l'Université Stanford.

De nombreux travailleurs de l'industrie technologique se sont levés pour signaler des problèmes majeurs dans le développement de l'intelligence artificielle, incitant les entreprises dans lesquelles ils travaillent à suspendre ou à réviser l'utilisation d'outils susceptibles de nuire aux groupes vulnérables ou minoritaires. Des employés d'Amazon ont interrogé des gestionnaires sur l'utilisation de la reconnaissance faciale par l'entreprise. Plus récemment, les employés de Google se sont dressés contre un comité de surveillance de l'éthique qui comprenait le président de la Heritage Foundation, un groupe connu pour son lobbying contre les droits des personnes LGBTG. En réponse, la société a complètement dissous le conseil d'administration.

Les auteurs du rapport concluent : "La crise de la diversité dans le domaine de l'IA est bien documentée et d'une portée très large. Les symptômes se manifestent dans la disparité des emplois dans l'industrie et le monde universitaire, dans l'inégalité des offres d'emploi et des promotions, dans les technologies d'IA qui reflètent et propagent des stéréotypes préjugés, et dans la résurgence du déterminisme biologique dans les systèmes automatisés."

Qu'en pensez-vous ? L'un d'entre vous a-t-il été victime ou témoin d'un cas de discrimination par un système basé sur l'intelligence artificielle ? 

6 Commentaires

Ecrire un nouveau commentaire :
Tous les changements seront sauvegardés. Aucun brouillon n'est enregistré pendant l'édition

  • Luna depuis 1 jour Lien du commentaire

    Exactement comme le classement des meilleurs smartphones où le meilleur est toujours le plus cher avec une autonomie bidon pour au moins les deux premiers !!

    https://www.androidpit.fr/meilleurs-smartphones-android


  • Si on est homme, blanc, plus de 50 ans et hétérosexuel, c'est devenu vraiment une honte d'être aussi banal.
    Le minoritarisme est devenu une obligation, défense d'être soi-même !
    Je dois aller me singulariser, du coup... pour devenir AINSI minoritaire et acceptable ?


    • Louis,

      Il ne s'agit pas de ça Louis, l'étude démontre que les personnes travaillant sur une technologie sensée être utile à la population dans toute sa diversité n'est pas représentative de cette diversité.
      Retournons le problème est imaginons que 90% des personnes travaillant dans le domaine de l'IA étaient gays, où encore seraient originaires d'Afrique noire, aurais tu le sentiment que tout le travail fait sur cette technologie servirait tes intérêts...je ne pense pas.
      Dans ce domaine comme dans tous les autres, la représentativité est essentielle.


      • Que chacun puisse avoir sa propre reconnaissance (en fonction de ses particularités) établie n'a rien à voir avec le fait de vouloir imposer une représentativité générale des particularismes.

        Ce système issu du communautarisme permettant à tout clan, toute communauté juxtaposée aux autres d'obtenir ainsi un droit de citer à entraîner des catastrophes dans le monde anglo-saxon et arrive maintenant en France.

        Cette soit-disant modernité permet entre autres des forums ou des lieux de discussion interdit à tout ceux qui ne possèdent pas cette particularité ethnique.
        Un exemple précis et très connu : les groupes de discussion (à base ethnique) développés au sein de l'UNEF, syndicat étudiant progressiste mais interdits aux non-représentants de cette ethnie et qui développent des idées racistes en souhaitant les combattre...

        Vouloir que chacun puisse exprimer ses opinions et voir ses capacités reconnues aux yeux de toute la communauté d'un pays est juste mais l'imposer dans le refus de la discussion avec des opinions et des particularités différentes est une source de problème supplémentaire et non un moyen de POUVOIR les régler.

        Si aux États-Unis, ce principe s'est imposé pour défendre les minorités bafouées de leurs droits, cela a abouti avec le temps avec la systématisation de ces pratiques par le développement de communautés qui refusent d'admettre l'existence de l'Autre et le repli sur soi.

        C'est dans ce sens précis que je manifeste mon mécontentement


      • D'accord avec toi mais tu généralises toujours les extrêmes...
        En plus il s'agit ici d'une science qui peut -à condition d'être optimiste- améliorer le quotidien de chacun.


      • La science et l'optimisme... comment dire, je ne parierais pas que ces deux "valeurs" puissent faire véritablement bon ménage.

        Parler de science sociale comme d'une science dure dont on puisse établir des réalités intangibles me gênent passablement.

        L'utilisation de celles-ci (les sciences sociales) pour édifier les "bonnes gens" qui ont envie de croire les "bonnes paroles", j'en ai suffisamment entendues en 40 ans pour avoir le droit d'être méfiant.
        Tous les personnes conscientes qui ont vécu dans les années 60-70 peuvent comprendre de quoi je parle.

        Mais pour donner un exemple bien plus proche, France-Culture (mais pas que, que j'écoute tous les jours avec bonheur) s'extasiait de la réussite d'Obama par l'utilisation des réseaux sociaux mais huit ans plus tard pestait pour la même utilisation quand Trump a joué des mêmes stratagèmes pour se faire élire.

        Un deuxième (pour la route...) toujours basé sur les infos que France-Culture a toujours relayé, les études sur la théorie du genre (gender study)
        Mais quand le sujet est devenu polémique en France, les mêmes journalistes niaient farouchement (oui, carrément) les discussions sur ces études dont ils débattaient quelques jours plus tôt.

        Peut-être comprendra-tu mieux ainsi la raison de mon pessimisme et ma méfiance de la bien-pensance...