Les Européens mal protégés face à l’intelligence artificielle (rapport)

Les Etats européens devraient renforcer leur législation pour protéger les droits fondamentaux face à l’intelligence artificielle, aujourd’hui difficilement contestable alors qu’elle peut être source d’erreurs et de discriminations, selon un rapport publié lundi.

« Une grande partie de l’intérêt se concentre sur son potentiel de soutien à la croissance économique. La manière dont elle peut affecter les droits fondamentaux a reçu moins d’attention », écrit l’Agence européenne des droits fondamentaux (FRA), basée à Vienne, en Autriche, dans ce document d’une centaine de pages.

L’intelligence artificielle (IA), expression quelque peu fourre-tout, désigne des technologies permettant aux machines d’imiter une certaine forme d’intelligence réelle, d' »apprendre » en analysant leur environnement au lieu d’exécuter de simples instructions dictées par un développeur humain.

Ces logiciels, qui regroupent un vaste champ d’applications (assistants vocaux, systèmes de reconnaissance vocale et faciale, robots évolués, voitures autonomes…), sont désormais utilisés aussi bien par les pouvoirs publics que par le milieu médical, le secteur privé et l’enseignement.

En moyenne, 42% des compagnies européennes ont recours à l’IA. La République tchèque (61%), la Bulgarie (54%) et la Lituanie (54%) sont les pays où elle est la plus répandue.

L’intelligence artificielle est particulièrement prisée des publicitaires pour cibler les consommateurs en ligne grâce aux algorithmes et « l’épidémie de coronavirus a accéléré son adoption », selon le rapport.

Les enquêteurs de la FRA ont réalisé environ 90 entretiens avec des organismes publics et privés en Espagne, en Estonie, en Finlande, en France et aux Pays-Bas.

« L’un des risques, c’est que les gens adoptent aveuglément de nouvelles technologies, sans en évaluer l’impact avant de les utiliser », a expliqué à l’AFP David Reichel, l’un des auteurs du texte.

L’intelligence artificielle peut ainsi violer la vie privée, en révélant l’homosexualité d’une personne dans une base de données par exemple.

Elle peut aussi mener à des discriminations face à l’emploi, si certains critères excluent des catégories de population sur la base d’un nom de famille ou d’une adresse.

Lorsqu’ils reçoivent un diagnostic médical erroné ou se voient refuser une prestation sociale, les citoyens européens ne savent pas toujours que la décision a été prise de manière automatique par un ordinateur.

Ils ne sont donc pas en mesure de pouvoir la contester ou d’introduire une plainte, et ce alors que des erreurs peuvent intervenir: l’intelligence artificielle, créée par l’être humain, n’est pas infaillible.

Dans un exemple récent, la Cour d’appel de Grande-Bretagne a estimé que le programme de reconnaissance faciale utilisé par la police de Cardiff pouvait faire preuve de préjugés raciaux ou sexistes.

« La technologie évolue plus vite que la loi. Nous devons maintenant nous assurer que le futur cadre réglementaire de l’UE pour l’intelligence artificielle soit basé sans équivoque sur le respect des droits de l’homme et des droits fondamentaux », souligne le directeur de la FRA, Michael O’Flaherty.

Laisser un commentaire

Votre adresse email ne sera pas publiée.

Ce site Web utilise des cookies pour améliorer votre expérience. Nous supposerons que vous êtes d'accord avec cela, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite