
«L’IA et la robotique devraient soutenir l’être humain, et non le remplacer»
Sarah Dégallier Rochat est responsable du champ thématique stratégique Transformation numérique centrée sur l’humain à la BFH. Avec trois autres chercheuses, elle est l’autrice d’une prise de position sur les questions éthiques liées à l’intelligence artificielle (IA) et à la robotique.
Madame Dégallier Rochat, quand avons-nous affaire à l’intelligence artificielle et la robotique dans notre vie quotidienne?
Sarah Dégallier Rochat: Tout dépend de la définition que l’on prend: un lave-vaisselle peut être considéré comme de la robotique. Sur internet, beaucoup de choses sont fondées sur l’IA: quand nous lançons une recherche sur Google ou que nous naviguons sur Instagram
Vous avez publié une prise de position avec trois autres chercheuses de la BFH. À quelle fin?
Nous voulions attirer l’attention de la communauté sur des sujets particulièrement pressants. Dans beaucoup d’articles, on lit que les robots vont remplacer l’être humain et que, d’ici quelques années, il n’y aura plus de travail. Or, nous pensons que les nouvelles technologies ne pourront pas nous supplanter dans un avenir proche. D’autres facteurs susceptibles de détériorer massivement les conditions de travail recueillent, par contre, beaucoup moins d’attention. Nous voulons y remédier!
Vous citez, par exemple, l’aliénation du travail ou le développement d’une société à deux vitesses.
En effet. Par aliénation, nous entendons le fait que les employé-e-s n’ont plus le contrôle sur leurs tâches. Le travail perd ainsi son sens. Un exemple: les caissiers et caissières de supermarché ont été remplacé-e-s par des machines en libre-service. Leur rôle a foncièrement changé: auparavant, leur travail consistait à aider les gens. Aujourd’hui, il s’agit de les surveiller. Ces employé-e-s ne peuvent plus effectuer les tâches qui les avaient motivé-e-s au départ à postuler pour ce poste . Par société à deux vitesses, nous voulons dire qu’il pourrait y avoir deux classes de personnes à l’avenir: les unes seraient en mesure de comprendre et de contrôler la technologie, les autres seraient à leur merci, avec un travail répétitif et mal rémunéré.
Que faire pour y remédier?
L’ensemble du développement technologique doit être centré sur l’humain. Cela signifie que les besoins des personnes, leurs limitations autant que leurs forces doivent être pris en compte. C’est l’unique façon de garantir une utilisation responsable de la technologie! C’est important pour des raisons éthiques, mais aussi parce que le potentiel des nouvelles technologies ne peut être pleinement exploité que si l’homme et la machine se complètent judicieusement. En particulier, les utilisateurs et utilisatrices doivent comprendre suffisamment la technologie pour pouvoir l’utiliser de manière efficace et raisonnable.
À quelle fin?
Prenons un exemple: aux Pays-Bas, un scandale a éclaté autour de l’utilisation abusive des allocations familiales versées par l’État. Un algorithme avait été développé pour détecter les fraudes en amont. Premier problème: l’algorithme était biaisé. Il a accordé une importance excessive à certains facteurs, à savoir un faible revenu et la double nationalité. Deuxième problème: l’algorithme a pris des décisions inexplicables qui n’ont pas été remises en question. On ne devrait pas accorder une telle responsabilité à l’IA! Des personnes ont ainsi été accusées et ont ensuite dû rembourser beaucoup d’argent, principalement des personnes à faibles revenus. Certain-e-s ont ainsi perdu leur maison ou leur emploi. Or, cela est dû à une confiance aveugle dans une technologie que l’on ne comprend pas. C’est un véritable danger.

Vous dites que les nouvelles technologies ne doivent pas remplacer les êtres humains mais les aider.
En soi, ce n’est pas une mauvaise idée d’utiliser un algorithme pour détecter, par exemple, les fraudes aux allocations familiales. Les fonctionnaires ne peuvent pas passer en revue tous les dossiers. Un algorithme pourrait servir de premier filtre. Mais un être humain devrait ensuite passer en revue chaque cas sélectionné par l’IA, car de nombreux facteurs que l’IA ne comprend pas du tout entrent en jeu. De manière générale: une IA peut faire un choix parmi une énorme quantité de données, mais nous devons conserver la mainmise sur les compétences décisionnelles. La collaboration qui en résulte apporte une réelle valeur ajoutée. Nous appelons cette approche l’«intelligence augmentée», que nous différencions de l’«intelligence artificielle», notion utilisée jusqu’alors.
Peut-on citer des exemples où les humains et la machine travaillent bien ensemble?
Des applications d’IA sont déjà utilisées dans les services d’urgence: un-e professionnel-le de la santé enregistre les symptômes des patient-e-s et reçoit des suggestions de diagnostics. Mais c’est le médecin qui décide ensuite des traitements appropriés. Avantage d’une telle application: elle suggère aussi des maladies moins fréquentes ou que les professionnel-le-s de la santé n’associent pas forcément aux symptômes. C’est un soutien concret.
Quels sont les principaux atouts de la robotique et de l’IA?
Les entreprises sont soumises à une forte pression pour rester compétitives, notamment en Suisse où la main-d’œuvre est chère. En outre, trouver des personnes prêtes à effectuer des tâches très répétitives devient ardu. Si les robots s’en chargent, les entreprises peuvent maintenir leur production avec des effectifs semblables. Quant aux employé-e-s, ils et elles peuvent acquérir de nouvelles compétences et assumer des tâches mieux adaptées. Dans certains domaines, les machines nous surpassent: elles travaillent extrêmement vite, de manière précise et ne se fatiguent jamais. Elles s’avèrent donc très efficaces.
Et quelles sont les forces de l’être humain?
Sa flexibilité. Il peut faire un autre travail d’un jour à l’autre. Développer une IA prend du temps. De plus, elle ne remet pas les choses en question. L’avantage principal de l’être humain est sa pensée critique. Une IA peut traiter une grande quantité d’informations très rapidement, elle ne peut toutefois pas leur donner de sens.
https://www.bfh.ch/fr/actualites/news/2022/projektstart-bias/
* Dr Mascha Kurpicz-Briki (BFH-TI), Olena Yatsenko (BFH-TI), Dr Nada Endrissat (BFH-W)
Un nouveau projet Horizon Europe étudie la discrimination par les systèmes d’IA
L’intelligence artificielle peut faciliter de nombreuses tâches, y compris dans le secteur des ressources humaines. Cependant, les systèmes d’IA, souvent loin d’être libérés des préjugés, les reproduisent. Un projet Horizon Europe vient d’obtenir le feu vert pour en étudier les raisons et chercher des solutions pour y remédier, ce avec l’appui du groupe de recherche Applied Machine Intelligence de la BFH.
Cette œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution - Pas de Modification 4.0 International