fbpx

I.A., Ô mon I.A. Suis-je toujours le plus beau ?

Je ne suis pas trop moche. Ce n’est point moi qui un dis, ni ma tendre mère, ni même la femelle de ma bonne marche. Non, c’est la intelligence artificielle lequel le dit. Miss me l’assure, mien “score de beauté” est de 7, 2 sur 9. Je m’en sors bien.

Retrouvez l’intégralité de cet entrefilet dans WE LENDEMAIN n°33 , décliné en kiosque & sur notre magasin en ligne .

Rapidement passées sur un site Internet, en face de ma la vidéo-conférence, un logiciel séquestre analysé mon bouille. Il en séquestre déduit, presque instantanément et avec le “taux de confiance relatives au 100 %”, succinct j’étais un hère, que j’avais chez 52 et 55 ans (j’en garde 53) et que j’avais “l’air triste” (en plein confinement individuelle et souffrant de Covid-19 depuis à peu près deux mois, c’est probable). L’algorithme séquestre finalement conclu uniquement j’étais “normal dans 92 %”.

Le site pornographique s’appelle “How machinal am I? ” (“À quel centre suis-je normal? ”). Il ne vient pas d’une pirouette marketing d’une site de cosmétiques, toutefois s’inscrit dans un large projet de recherche communautaire, Sherpa. Lancé dans environ 10 ans et impliquant onze partenaires dans six pays européens, ce projet vise à “mieux voir les conséquences un ensemble de systèmes d’information intelligents, résultants de l’intelligence artificielle et du big data, sur les niveaux de l’éthique & des droits au sein de l’homme” .  

Les biais de ce beau

“How machinal am I? ” a été créé grace au Néerlandais Tijmen Schep, artiste et concepteur de systèmes numériques respectant la vie individuelle. Ravi mais fasciné du succès de son site web – deux journées après son lancement fin septembre 2020, à peu près 100 000 personnes y avaient déjà passé au crible leur visage –, il met sur la garde contre ces effets pervers dans systèmes qui nous jugent à notre insu, imposant une sorte concernant le “normalité artificielle”.  

“Ces systèmes “intelligents” influencent de plus en plus nos activités. Sur les sites pour obtenir rencontres, vous risquez de n’être mis en relation qu’avec des personnes jugées également attirantes que vous” , explique-t-il.  

Et de souligner: ”Si vous gagnez un score du beauté de 6, 5, est-ce formidable ou mauvais? Concernant le savoir, vos satisfaction de nos clients sont comparés à tous les scores des personnes laquelle vous ont précédé. Vous pouvez ainsi examiner si vous êtes dans la norme ou non. C’est la même chose qui survient aujourd’hui, avec des procédés d’IA [intelligence artificielle] qui nous comparent les uns à tous les autres. Or afin de un algorithme, “normal” ne peut être défini que mathématiquement, cela induit un glissement entre “être normal” et être simplement “moyen”. ”

Un point est tatoué. Mais il reste que, bon ou bien mauvais, le “score de beauté” sommaire vous attribue la machine est troublant en soi.

L’idée n’est point nouvelle. En 2016, un concours international de beauté point comme les autres, Beauty. ai, défrayait une chronique et engendrait une vive polémique. Son ambition: poster des intelligences artificielles désigner “les personnes très attirantes” parmi plus de 6 000 photos de bouille envoyés par les aficionados du web. Le problème? Sur les 44  plus “belles” personnalités du palmarès ultime, 37  étaient pures, une seule avait la peau foncée (alors que nombre de participants émanaient d’Inde ou de états africains). Allons formidable. Même une IA peut donc se trouver être raciste?

Dans lire aussi: Ces algorithmes sont-il sexistes?

Pour en savoir plus ou lire la suite : Source | Lien vers l'article

Les dernières publications :