L’éthique de la technologie bat son plein ! Et ce sujet peut s’étudier sous différent angles, avec de nombreuses possibilités d’appréhender sa complexité multidimensionnelle.
L’engouement porté à l’IA générative par le biais de ChatGPT, rebat à nouveau toutes les cartes. Cependant, l’éviction de Sam Altman d’Open AI en novembre 2023 est révélatrice d’une tension croissante entre l’idéalisme vertueux, et le pragmatisme commercial.
Et, ce terme d’intelligence, est ici trompeur, il devient anthropomorphique. Rappelons qu’il s’agit d’un dispositif mathématiques de probabilités, de statistiques, et non pas de conscience. Pour autant, la production de cette intelligence artificielle et de son usage, découlent des problèmes éthiques.
D’ailleurs 94 % des dirigeants français sont activement engagés dans l’élaboration de nouveaux cadres plus adéquats. En premier lieu, on peut regretter que l’on ne puisse pas compter sur nous, contemporains connectés, pour délivrer des données intelligentes, sourcées, pour des échanges instructifs et pondérés, sur les plates-formes. Notre éthique serait directement infusée dans les algorithmes. On ne peut accréditer non plus les déclarations angéliques des big boss de la tech, portées par leurs propres idéaux, messianiques et pas si universels.
- Lorsque l’on est dans une grande entreprise qui s’apprête à utiliser ces méga IA : Quelles questions faut-il se poser, comment instaurer une approche corporate et éthique ? Cela implique des réflexions philosophiques, des choix technologiques, des actions de formation , éducatives et des cadres législatifs.
Mais je ne reviendrai pas sur ce dernier point abondamment traité, notamment avec les règlements européens. On se tourne naturellement vers les philosophes, les éthiciens. Qui questionnent les finalités et les limites de l’IA, et proposent des cadres en résonance avec nos valeurs, et avec notre déontologie. La technologie est également une ressource.
Les concepteurs d’algorithmes peuvent intégrer des principes éthiques, dès la phase de conception. Mais aussi, de la transparence et de la robustesse. Pour cela, il faut recourir à des méthodes et des outils appropriés , tels que l’audit, la certification.
On peut envisager aussi l’attribution d’un label. L’explicabilité de l’intelligence artificielle contribue à la confiance. Et plus intelligible encore, l’auto-explicabilité de l’intérieur, vise à rendre plus compréhensible les décisions d’un système. Puis la traçabilité, la protection des données, la correction des biais, ou ce que je considère comme essentiel, la conception centrée sur l’utilisateur.
Toutes les parties prenantes peuvent être sensibilisées avec des formations, dès le collège, les programmes scolaires et universitaires, qui devraient inclure l’éthique. Qui s’inséreraient dans les disciplines fondamentales.
Il y a un autre outil efficace efficient, pour y avoir apporté ma contribution: La création de comités d’éthique, indépendants aux boîtes de technologie. Régulièrement convoqué, ce comité d’experts indépendants intervient sur les cas d’usage et pose des repères. Cet exercice est un challenge, car des situations concrètes et singulières se font jour, avec leur lot de questionnement. Fort à propos, comme l’observe le philosophe Dominique Lecourt : l’éthique de l’IA est une éthique de la discussion.
Dès lors on n’a pas fini d’en parler !
Vous pouvez aussi écouter cette chronique PatchTech sur l’excellent podcast Trench Tech , ici : https://www.youtube.com/watch?v=bG1MIq9x5hk&list=PL10BD0I2n8jmtFPLJ6Y0M5x_0w095LuSG&index=5

