La COBEL Academy propose différentes dates et formats de Webinaires & Master Class

Façonner une intelligence artificielle plus éthique et plus inclusive

Chroniques d’experts

Digital

Le 07/12/2022

Intelligence artificielle éthique inclusive

© Getty Images


Temps de lecture : 12 minutes

Le développement exponentiel de l’IA dans de multiples domaines pose l’éthique de cette technologie comme l’un des enjeux cruciaux pour l’avenir de nos sociétés.

L’être humain a toujours excellé pour construire des produits répondant aux besoins spécifiques de certaines personnes,  excluant ainsi certaines autres. Nous avons continué à apprendre à le faire, du mieux que nous pouvions.

Cette recherche de la différenciation ultime, cette obsession pour la conception de choses qui répondront à la demande du marché et conviendront à un public cible bien particulier, ce savoir-faire que nous aurons peut-être appris à l’école ou de façon empirique, façonne l’image que nous nous faisons du monde, et la façon dont nous nous y voyons, dont nous nous y comportons.

Sans aucun doute, cet état d’esprit est en tension avec l’inclusivité et la diversité. Plus nous sommes doués pour concevoir et offrir des produits et services qui conviendront parfaitement à un public spécifique et ciblé à dessein, plus nous nous améliorons dans notre capacité à discriminer d’autres publics non ciblés, et donc mis de côté, à dessein.

Construite avec nos modèles mentaux, moraux, éthiques, leurs forces et leurs limites, l’intelligence artificielle est faite dans le même moule : elle n’est pas inclusive, mais exclusive par nature.

Et, paradoxalement, elle est déjà partout. Le marché mondial de l’intelligence artificielle était estimé à 87 milliards de dollars en 2021 et devrait atteindre 1597,1 milliards de dollars américains d’ici à 2030. Son adoption continue et accrue la propulse au cœur de nombreuses organisations dans le monde :

– dans de plus en plus de composants matériels et logiciels ;

– dans de plus en plus de secteurs industriels (automobile, santé, retail, finance, banque, assurance, télécoms, industrie, agriculture, aviation, éducation, médias, sécurité, etc.) ;

– dans de plus en plus de fonctions et de métiers (ressources humaines, marketing, vente, publicité, juridique, supply chain, etc.).

Nous n’en sommes qu’au commencement.

Comment garantir que les biais ou les modèles de segmentation dans les données qui alimentent l’IA ne conduisent pas à des fonctionnements qui traitent défavorablement les individus sur la base de caractéristiques telles que leur sexe, leur couleur de peau, leur religion, leur handicap, leur orientation sexuelle ou politique ?

Voilà l’une des grandes questions que pose le développement de l’intelligence artificielle.

Un défi de société

L’intelligence artificielle n’est pas si… artificielle. Avec son développement exponentiel et effréné, la tentation est, et sera de plus en plus grande, de l’utiliser pour établir des modes de différenciation inédits, des approches de ciblage inégalées, pour plus de croissance économique, pour plus de compétitivité.

Il y a une tension entre d’une part la nécessité d’avoir des organisations et des individus capables de tolérance vis-à-vis de la diversité tout en comprenant l’enjeu de l’inclusivité pour construire plus d’égalité dans la société et, d’autre part, le système économique mondial, qui incite et exacerbe plus qu’il ne réfrène des comportements nous conduisant dans ces formes de compétition où différencier, donc discriminer, est une règle du jeu qui mène au succès.

Cette tension est en voie d’amplification, par ce que l’IA est en capacité de codifier de manière systématique et systémique dans notre société numérique : c’est l’un des plus grands défis de notre temps.

L’intelligence artificielle pénètre déjà tous les pores de la société :

– les assistants personnels sont maintenant virtuels et permettent d’exécuter des tâches quotidiennes de base ;

– les analyses de marché sont réalisées par des machines qui produisent des études telles que la comparaison de concurrents, et mettent en forme des rapports détaillés ;

– les analyses des comportements d’usage, des processus d’achat et des préférences des clients sont passées au crible par des CRM (gestion de la relation client) qui intègrent de plus en plus d’intelligence et sont capables de faire des prédictions sur les besoins des consommateurs ;

– le service client est également assuré par des chatbots capables de répondre aux questions les plus fréquemment posées par les visiteurs d’un site Internet ;

– etc.

Et tout cela n’est qu’un avant-goût, comparé au développement d’applications possibles, déjà naissantes, et pour autant inscrites dans un futur qui s’approche à grand pas avec :

– les véhicules autonomes (bicyclettes, voitures, trains, avions, bateaux…) ;

– les robots assistant les chirurgiens en salle d’opération ;

– la création de contenus (vidéos, musiques, articles…) entièrement produits par le fruit du travail de la machine ;

– les politiques publiques dont les mesures seraient prescrites, et dont la performance serait prédite par l’analyse de larges volumes de données ;

– etc.

Au vu des enjeux de société qu’elle revêt pour l’avenir de l’humanité, l’IA est loin d’être aussi artificielle qu’on pourrait le penser.

Soit nous prévoyons d’utiliser l’IA pour augmenter notre capacité à éliminer les inégalités visibles et invisibles jusqu’à des niveaux jamais atteints auparavant, soit nous prévoyons consciemment ou non de les augmenter à la même échelle. L’ère de l’intelligence artificielle dans laquelle nous entrons comprendra de moins en moins d’entre-deux.

L’intelligence artificielle ouvre une nouvelle ère pour l’apprentissage humain.

Nous, humains, sommes responsables de ce que le machine learning – essentiel à toute intelligence artificielle – apprend, comment il apprend ce qu’il fait et n’apprend pas. La façon dont nous enseignons ce que la machine doit apprendre est au cœur des problèmes d’apprentissage du XXIe siècle. Cela implique que nous devions non seulement continuer à apprendre à développer notre propre intelligence, mais aussi comprendre et apprendre comment la machine apprend à développer la sienne.

Les apprentissages automatiques et humains font face à des défis similaires :

– apprentissage supervisé vs. non supervisé ;

– apprentissage structuré vs. non structuré ;

– apprentissage «one-shot» et «few-shot »(1) vs. apprentissage « blink » (en référence à l’ouvrage de Malcolm Gladwell «La Force de l’intuition») ;

– apprentissage à long/court terme vs. compromis entre oubli et rétention ;

– apprentissage « zero-shot »(1) vs. apprentissage par le « rêve » (selon la théorie de Francis Crick et Graeme Mitchison sur la fonction de rêve-oubli du sommeil paradoxal) ;

– apprentissage visuomoteur (selon le paradigme de l’intelligence du corps) vs. multisensoriel (auditif, visuel et kinesthésique).

En apprenant comment les machines peuvent apprendre, nous découvrons et découvrirons encore de nouvelles façons d’apprendre qui, jusqu’alors, n’avaient pas été explorées ni même imaginées. Celles-ci pourraient bien révolutionner les normes que nous connaissons sur notre propre façon d’apprendre, pour augmenter l’intelligence humaine.

Mais ne nous y trompons pas.

L’intelligence et le savoir ne sont pas synonymes, et augmenter notre savoir est une condition nécessaire mais insuffisante pour augmenter notre intelligence. Augmenter notre intelligence humaine c’est surtout augmenter notre capacité à remettre en question, à challenger le statu quo, à éveiller notre curiosité et faire surgir dans notre esprit de nouvelles questions, pour la découverte et la redécouverte de ce que nous pensons savoir, et de ce que nous sommes.

L’intelligence artificielle est bien moins intelligente qu’on l’imagine.

Une question de compréhension

Sans aller jusqu’à imaginer une intelligence artificielle capable d’imiter le ressenti humain, il y a quelque chose qui la distingue inévitablement de celle de l’humain, et qui réside dans la compréhension et l’appréhension du contexte.

Le contexte est composé d’autant de paramètres, certains visibles à l’œil nu, et d’autres plus discrets, plus fins, plus subtils, constitués de signaux faibles et de détails – autant de paramètres qui comptent pour caractériser un contexte. Compte tenu de la nature d’évolution perpétuelle propre à tout contexte, il faudra du temps avant qu’une intelligence artificielle soit capable d’apprécier la complexité d’un contexte.

L’intelligence artificielle ne peut pas tout.

Construire l’IA dont nous avons besoin pour le bien de la société, passe nécessairement par une vision. Celle permettant de comprendre les tâches qui sont et seront les mieux exécutées par l’intelligence de la machine, par opposition à celles qui sont et seront mieux exécutées par l’intelligence humaine, en considérant aussi celles qui doivent et devront continuer d’être exécutées par l’humain, quoi qu’il arrive.

Les réponses que nos sociétés établiront pour bâtir le cadre selon lequel l’IA est intelligente pour l’humain, façonneront le futur de l’humanité toute entière, non seulement sur le plan de nombreuses innovations et de nouvelles formes d’avantages concurrentiels qui changeront les lois de marchés telles que nous les connaissons aujourd’hui, mais, plus important encore, sur le plan sociologique, du monde que nous laisserons aux prochaines générations.

La plupart du temps, lorsque l’on pense au machine learning, notre modèle mental nous amène à penser qu’il s’agit d’une approche strictement unidirectionnelle dans laquelle nous enseignons à la machine et lui donnons, dans différents domaines, autant que possible, les moyens d’apprendre par elle-même.

Une relation en profonde mutation

L’IA provoque une profonde mutation du lien entre l’humain et la machine qu’il deviendra de plus en plus critique et passionnant d’explorer par ce qu’il est en réalité déjà plus bidirectionnel que jamais. La question nous est donc posée : que peut nous apprendre l’intelligence de la machine, pour nous améliorer (dans ce que nous faisons) en tant qu’êtres humains ?

Nous allons devoir apprendre à penser différemment sur bien des choses pour faire faire à la machine ces mêmes choses qu’il nous serait humainement difficile, voire impossible, de réaliser de la même manière. Et nous allons aussi pouvoir saisir de nouvelles opportunités d’apprendre, de nous former, sur de nombreuses choses dont l’expertise ne s’acquiert aujourd’hui qu’au prix de longs efforts et de nombreuses années, et pour lesquelles la performance ne peut réellement être atteinte que par l’exécution humaine.

L’intelligence artificielle s’immisce dans la prise de nombreuses décisions.

Si l’IA, et les recommandations qu’elle produit, ouvre des opportunités insoupçonnées pour augmenter non seulement notre propre intelligence, mais aussi la nature des relations et des attachements émotionnels que nous pourrions développer avec la machine dans le futur, elle ouvre aussi des questions délicates de responsabilité sociétale des entreprises (RSE) : à partir de quand l’aide à la décision apportée par l’intelligence artificielle agirait-elle avec un tel degré d’influence, qu’elle déciderait finalement silencieusement à la place de l’humain ?

Cette question compliquée est à notre porte.

La réponse, notamment en fonction du degré de vulnérabilité que la société peut à un instant donné reconnaître en chacun d’entre nous, dans un moment particulier de notre vie, dans des circonstances particulières d’existence, peut revêtir autant de nuance que de personnes.

C’est pourquoi les applications, les appareils, et tout équipement technologique doté de quelque forme que ce soit d’intelligence artificielle, devront faire l’objet d’une lisibilité explicite quant à la limitation des paramètres que l’algorithme prend, ou ne prend pas en compte, quant aux potentielles implications pouvant représenter un danger pour soi ou pour autrui, pour aider à  une utilisation responsable desdites IA de ces machines, et prévenir les risques d’utilisation inappropriée, voire proscrites.

L’IA nous oblige à relever le grand défi de la rendre capable d’être explicitement explicable à tous et pour tous, sur les causalités des résultats qu’elle propose, pour guider des décisions qui impacteront de plus en plus nos vies et la société dans son ensemble, même si, paradoxalement, en tant qu’humains, nous-mêmes ne savons pas tout expliquer sur le pourquoi de nombre de nos décisions, de telle manière que le plus grand nombre les comprendraient et que ces explications seraient justes.

Vers une économie de la confiance

L’intelligence artificielle va profondément changer la valeur du travail. Certains craignent même qu’elle n’en vienne à remplacer l’humain.

Si l’image d’une intelligence artificielle de science-fiction, supplantant l’humanité comme dans Terminator, est pure fiction, il y a un paradigme qu’il est nécessaire d’inclure dans ce que la société numérique couve en son sein : l’intelligence artificielle peut être meilleure que l’homme pour réaliser certaines tâches et, pour autant, elle n’est pas et ne sera pas meilleure que l’homme pour réaliser toutes les tâches.

Avec les développements de l’IA, nous vivons et nous allons vivre une transformation qui est celle de l’économie de la connaissance vers l’économie de la confiance, motivée, d’une part, par les besoins de plus de prévisibilité, de plus de précision et de plus d’efficacité et, d’autre part, par les besoins de plus d’équité, de plus de transparence et de plus de durabilité.

Pour l’avenir des travailleurs du savoir, la technologie numérique – et en particulier l’intelligence artificielle – entraînera cinq types de changements. Chacun va bouleverser la société à plus ou moins grande échelle, et de façon plus ou moins forte selon les natures prédominantes du travail et de la valeur travail dans chaque continent :

– Source première d’anxiété, largement alimentée par l’imaginaire d’une IA diffusée par la pop culture, il y a tout d’abord ces métiers qui vont disparaître. Et ce n’est pas nouveau. En d’autres temps, avec d’autres révolutions industrielles, ce phénomène a déjà existé.

– Ensuite, il y a les emplois qui seront augmentés par l’intelligence artificielle. Là aussi, ce n’est pas nouveau. Par analogie, en d’autres temps, en d’autres révolutions industrielles, ce phénomène a aussi existé.

– Puis il y a ces métiers qui vont évoluer pour devenir des tech-jobs.

– Et ceux qui sont assez difficiles à imaginer désormais, car leur utilité est intrinsèque à des besoins de nos sociétés dont on ne sait encore rien, ou peu de chose.

– Mais ne soyons pas naïfs : le développement de l’intelligence artificielle créera – et crée d’ores et déjà – l’accroissement de l’émergence de métiers précaires, de métiers béquilles pour pallier le manque d’intelligence de l’intelligence artificielle. Ce sont, par exemple, ces travailleurs de l’ombre qui labellisent des tonnes de données, dans une frénésie de tâches particulièrement répétitives, pour aider l’IA à apprendre et faire en sorte que certains contenus abjects soient prohibés d’un accès via les plateformes que nous utilisons, parce qu’ils enfreignent la loi, avec l’impact que le visionnage de tels contenus peut avoir à la longue sur la santé mentale de ces « travailleurs ».

Lequel de ces types de changements provoqués par l’IA aura-t-il le plus grand impact sur l’évolution du travail dans nos sociétés ? Difficile à prédire. Pour autant, même s’il ne s’agit pas là de la seule force en mouvement dans la cinétique des transformations qui caractérisent notre siècle, ce sera évidemment à nous d’en décider.

Quoi qu’il en soit, l’intelligence artificielle n’a pas d’autre éthique que la nôtre.

Nos principes éthiques sont in fine, pour l’IA, une partie intégrante des exigences fonctionnelles qui, par voie de conséquence, codifient numériquement les biais dont nous sommes intellectuellement propriétaires. Elle hérite en quelque sorte des gènes éthiques de son créateur.

Rendre visibles les codes invisibles de nos sociétés est probablement l’une des avancées les plus transformantes que l’IA va permettre à l’humanité d’accomplir.

Un tel niveau de transparence sur le non-dit et le non-écrit, ainsi révélés au grand jour, va aider à plus d’égalité et redéfinir en profondeur la demande citoyenne de justice dans nos sociétés.

Et c’est aussi une opportunité de faire en sorte que les intelligences artificielles qui interagiront avec la nôtre soient le plus possible le produit d’intelligences collectives et, au mieux, le réceptacle de la richesse que peuvent produire les synergies issues de la diversité humaine, sous toutes ses formes d’intelligence.

L’augmentation de notre intelligence par celle de la machine sera toujours et plus encore à l’avenir confrontée à la question existentielle de la cause humaine que nous donnons à cette intelligence pour mission de servir.

C’est donc qu’il nous faudrait faire de l’ « intelligence artificielle » une intelligence inspirée par la quintessence de ce qu’il y a de meilleur dans notre humanité, en excluant toutes les parts sombres de la nature humaine. C’est probablement la question la plus vertigineuse, mais aussi la plus déterminante pour l’avenir de l’humanité. C’est une question éthique à laquelle seule notre humanité a le pouvoir et la responsabilité d’apporter une réponse, sans cesse renouvelée, pour construire le futur dans lequel nous souhaitons vivre.

(1) : Dans la méthode d’apprentissage automatique one-shot et few-shot, un petit nombre d’exemples est disponible dans l’ensemble de données d’apprentissage, tandis qu’avec l’apprentissage zéro-shot, il n’y a aucune information sur la catégorie concernée dans les données d’apprentissage.

Je suis déjà abonné, je me connecte

Pour en savoir plus ou lire la suite : Source | Lien vers l'article