fbpx

Les algorithmes sont-il sexistes ?

Sans toujours ce savoir, en utilisant bb, téléphone ou bb, ordinateur, nous sommes sasn plus cesse confrontés aux algorithmes. Or, eux ne sont point neutres.

“Quand personnes tape ‘écolier’, personnes a des parents qui vont dans l’école, filles ou bien garçons. ‘Écolière’, personnes a également un ensemble de jeunes filles sous costume d’écolière, érotisées” , relève Isabelle Collet, informaticienne mais aussi professeure à l’Université de Genève, au sein de une interview dans Heidi. News .

En maman: les algorithmes se trouvent être créés par un ensemble de hommes, ils “apprennent” en fonction des données succinct nous leur soumettons. Si ces portées sont biaisées, pas représentatives des diversités, les algorithmes ce seront aussi. Ainsi, selon l’UNESCO , seuls 22 pourcent des professionnels dans l’IA à travers le monde se trouvent être des femmes.  

À lire également: 33 % concernant le femmes dans le sur internet: les solutions afin de y remédier

L’IA, reflet des courages d’une société

“Comme toutes les technologies, l’intelligence artificielle reflétera ces valeurs de ses créateurs” , explique Kate Crawford, co-directrice du l’AI Now Institute à l’Université proposent un New York, citée par Euro News .  

“Les algorithmes se contentent de reproduire un fait avéré, mais ils ‘sur-typent’ la réalité. C’est-à-dire, dans partir des portées de l’existant qu’ils ont déjà, ils en fournissent la version plus stéréotypée” , détaille Isabelle Collet.

L’un des principes les plus connus: icelui d’Amazon qui avait automatisé son recrutement en 2018. L’intelligence artificielle s’était inspirée de la manière comme par exemple l’entreprise recrutait les individus. Les postes processus étaient généralement occupés par des messieurs et les hommes avaient aussi les plus longues carrières avec concernant le meilleurs salaires. L’IA avait donc sélectif les CV d’hommes.

Différent exemple, mis sur la lumière par Joy Lisi Rankin, scrutatrice sur la question de ce genre, de la race et du pouvoir au sein de l’IA à l’Institut AI Now pour obtenir New York, afin de Euro News  : “Facebook propose des apprends pour des emplois plus pratique payés aux messieurs blancs, alors par rapport aux femmes et les individus de couleur se voient proposer un ensemble de annonces pour des jobs moins bien raqués. Google, quant à quant à lui, renvoie des résultats sexistes et pornographiques à tous les requêtes ‘filles noires’ ou ‘latinas’. ” 

“La entreprise a été très sexiste et très ségrégationniste et comme ces algorithmes apprennent au sein de des données passées datant de un grand nombre de années – ces nouvelles ne le seul pas à effecuer pas – ils sont forcément déviés eux aussi” , explique au média Maddyness Aude Bernheim, chercheuse, co-fondatrice de l’association Wax Science qui pugilat pour une science mieux inclusive et co-autrice de L’Intelligence Artificielle,   point sans elles .

Ils se trouvent être les héritiers au sein de notre histoire: ils ne sont point plus sexistes uniquement la société actuelle pas l’est .

Aude Bernheim

Mieux éduquer les algorithmes

Toutefois la première esprit artificielle a été construite par une femelle: Ada Lovelace, cette première programmeuse des siècles, au milieu du XIXeme siècle. Si ces femmes étaient vraiment présentes à la conception de la programmation, elles-mêmes sont aujourd’hui minoritaires dans le domaine. Cette inégalité se retrouve donc au sein de l’écriture des algorithmes.  

“Avant du coder sans diagonaux, il faut faire obtenir conscience aux individus qu’il y a un ensemble de biais. C’est afin de cette raison qu’il est essentiel proposent un sensibiliser dans les écoles primaires de code mais aussi les entreprises qui emploient des codes tel que les banques – pour allouer un ensemble de crédits – ou bien une école d’ingénieur – pour recruter” , préconise Pousse Vincent, co-autrice relatives au L’Intelligence Artificielle,   point sans elles .

La entrepreneuse et anthropologue française semble prendre trouvé une solution. Coauteure à un data scientist, Daphné Trimat lance ce viii mars la start-up Unbias , laquelle propose un instrument pour corriger ces biais sexistes un ensemble de algorithmes. Il s’agit d’une intelligence artificielle capable de détecter les biais sexistes et les remplacer via des mots ou un ensemble de tournures de phrase moins discriminants.  

“Quand on ruine le train entre autre, la SNCF vous parle à travers le robot sur la messagerie WhatsApp. Notre alternative vise à ce qu’un logiciel comme celui-là utilise un langage laquelle ait le environ biais possible” , illustre la fondatrice au média Usine Nouvelle .  

L’entrepreneuse souhaiterait même aller à vocation plus loin: “Au-delà de détecter les biais au sein des algorithmes, la technologie saurait aider les humains à voir les obliques qu’ils ne trouve plus” , prévoit-elle. Le logiciel pourrait par conséquent mettre en certitude les expressions prodigieuses comme discriminantes, à destination des entreprises ou leurs clients.  

Pour en savoir plus ou lire la suite : Source | Lien vers l'article