Le projet TransAlgo est né d'un manque de confiance observé qu'inspire l’intelligence artificielle aujourd'hui. En effet, plusieurs rapports et études fleurissent à travers le monde sur le sujet mettant en exergue de nouvelles formes de discrimination et d’inégalité provoquées par des systèmes algorithmiques. Or, ce manque de confiance ne peut résider uniquement dans le manquement du respect de règles éthiques. Il implique aussi le respect d’autres normes, gages de « qualité de service ». Comment garantir cela autrement que par une transparence intelligible et compréhensible par tous, et par chacun ?

Le constat

Plusieurs voix s’élèvent, dans les sphères des services publics comme dans celles des entreprises privées, contre la « tyrannie » ou le « pouvoir » des algorithmes en appelant à plus de transparence et d’éthique et à la mise en place de garde-fous pour le respect des droits civiques et des libertés individuelles.

La France et l’Europe ont souvent été accusées de naïveté en se préoccupant d’éthique et moins de la création de valeur économique et du développement industriel, terrain de jeux trop souvent laissé aux acteurs industriels américains ou chinois. Ainsi, l’éthique des algorithmes et de l’IA est perçue par certains comme un frein au développement économique et au déploiement des technologies de l’IA, et considérée comme un ensemble de « bons sentiments » empathiques et généreux qui n’engagent personne, en tout cas pas les fournisseurs des services numériques.

En réalité, ce sont moins les principes éthiques des algorithmes qui comptent mais plus la confiance des citoyens et des professionnels qui en fait un facteur de compétitivité économique et non un frein.

L’observation

Si l’on regarde de plus près, les risques négatifs de l’IA ne sont pas toujours issus d’une volonté de nuire, de discriminer sur un critère non avouable ou de contourner la réglementation en vigueur, mais parfois simplement d’un manque de maîtrise dans le déploiement de ces technologies très puissantes. En effet, un algorithme peut déboucher sur deux décisions différentes dans des situations comparables simplement parce qu’il est instable (non reproductible) ou vulnérable au bruit des données.

De manière plus générale, l’IA de confiance comporte deux volets : l’IA responsable, d’une part, et l’IA robuste et sûre, d’autre part. L’IA responsable est celle qui doit se conformer aux règles juridiques et aux règles éthiques. Dans ce cas, le comportement des algorithmes doit respecter, par exemple, la protection des données personnelles mais aussi les règles de concurrence entre les entreprises.

Là encore, il y a une variabilité de réglementation d’un pays à l’autre, mais des efforts sont en cours à travers la Commission européenne et l’Organisation de coopération et de développement économiques (OCDE) pour un alignement international à ce sujet, ayant conscience que les services fondés sur des technologies de l’IA ne s’arrêtent pas aux frontières. La conformité aux règles éthiques signifie le respect des valeurs humaines comme la démocratie, la dignité humaine et l’autodétermination.

L’IA robuste est celle qui apporte les garanties d’un fonctionnement sûr des systèmes algorithmiques qui assureraient l’absence de biais ou de fragilité tout au long des phases d’une décision automatique.

L’action

Ces qualités engagent les producteurs de ces technologies dans tous les domaines : santé, banque et assurance, environnement, sécurité et défense, culture, etc. Elles ne se limitent pas à des qualités éthiques mais représentent un gage de « qualité de service » et de confiance dans leur usage.

Aujourd’hui, beaucoup reste à faire d’un point de vue recherche et innovation pour assurer l’alignement du progrès technologique de l’IA sur nos valeurs juridiques et éthiques. Avec TransAlgo, nous souhaitons sensibiliser en amont, donner les clés pour une conception de systèmes algorithmiques plus responsables. Nous souhaitons également apporter des garanties de cela en aval, en aidant à plus de transparence tant dans la réflexion que dans le décodage.

La confiance c’est bien, mais la preuve de la confiance par la transparence c’est mieux !