AlgorithmWatch: des petits assistants très puissants

Pilotage des feux tricolores, gestion de la timeline sur les réseaux sociaux, prévisions météorologiques ou recommandations de streaming: les algorithmes influencent notre quotidien. L’organisation AlgorithmWatch garde un œil sur leurs aspects problématiques.
Les algorithmes influencent notre vie quotidienne. Ils sont toutefois si discrets que beaucoup n’ont même pas conscience de leur existence. Un algorithme, c’est quoi concrètement? Pour faire simple, il s’agit d’une série d’instructions exécutées pas à pas pour effectuer une tâche. Si vous suivez une recette pour préparer un plat de pâtes, l’algorithme exécute les différentes étapes de la recette. Pour calculer l’itinéraire le plus court et l’afficher sur l’écran de votre téléphone portable, l’application Google Maps fait également appel à un algorithme programmé.
De nos jours, les algorithmes sont l’une des thématiques majeures dans les secteurs de l’informatique et des mathématiques. Des cracks en informatique les développent et montrent ensuite comment ils peuvent commander des ordinateurs et des machines sous la forme de programmes et de circuits électroniques. Les algorithmes tirent leur nom du mathématicien perse Muhammad al-Chwarizmi dont les ouvrages d’enseignement ont été traduits en latin au Moyen-Âge.
Ils décident de ce que nous voyons
Les algorithmes dominent les réseaux sociaux: ils décident en arrière-plan de ce qui est affiché dans nos fils d’actualité Facebook ou Instagram... tout comme de ce qui ne l’est pas. Les algorithmes programmés servent souvent des intérêts commerciaux concrets dont ils tiennent compte en permanence.
Ils engendrent également des effets secondaires problématiques, par exemple lorsque Google Maps dirige des flots de voitures vers de petites rues résidentielles pour éviter les bouchons. Ou lorsque la reconnaissance facile des smartphones et autres appareils fonctionne bien mieux pour les hommes à la peau claire que pour les hommes à la peau foncée ou les femmes. Ou encore lorsque des sites de recrutement suggèrent aux femmes des emplois différents de ceux proposés aux hommes, la plupart du temps mal payés et fondés sur des clichés.
C’est pourquoi l’organisation d’utilité publique AlgorithmWatch est présente en Europe depuis quelques années. Son rôle: sensibiliser le grand public aux éventuels conflits éthiques, contrôler les processus de décision algorithmiques et formuler des recommandations en faveur du contrôle démocratique et de la régulation.
Garder l’œil sur les algorithmes
Depuis septembre, l’organisation dispose également d’une représentation en Suisse grâce au Fonds pionnier Migros qui garantit son financement jusqu’à fin 2022. «Nous essayons de garder l’œil sur les algorithmes», déclare Anna Mätzener (42 ans), mathématicienne et responsable d’AlgorithmWatch Suisse. «Notre objectif consiste à nous assurer que cette technologie n’a pas d’effets négatifs sur la société, que ses avantages profitent à tous et qu’ils n’accentuent pas simplement les rapports de force existants.» À cette fin, l’organisation rédige régulièrement des rapports, dont le premier consacré à la situation en Suisse a été publié en janvier (voir l’entretien) et s’efforce d’apporter des clarifications dans les médias.
Actuellement, AlgorithmWatch Suisse est uniquement composée d’Anna Mätzener et d’une collaboratrice, mais une autre personne devrait les rejoindre cette année. De plus, la collaboration avec le siège de Berlin est très étroite.

De nombreuses personnes n’ont pas suffisamment conscience de ce qui nous attend.
Nadja Braun Binder (46 ans) est professeure de droit public à l’Université de Bâle. Elle s’intéresse depuis déjà 20 ans aux algorithmes, en particulier dans le contexte de la numérisation des administrations publiques.
Pour le moment, la Suisse est sur la bonne voie en ce qui concerne l’utilisation des algorithmes, estime l’experte Nadja Braun Binder. Malgré tout, elle nous appelle à renforcer notre vigilance.
Les algorithmes nous simplifient la vie à bien des égards. C’est une bonne chose en soi, n’est-ce pas?
Tout à fait. Par exemple, les possibilités offertes par la reconnaissance vocale sont fantastiques. J’utilise moi-même régulièrement un logiciel de dictée vocale qui transcrit mes paroles à l’écrit. Je m’en sers par exemple pour rédiger mes e-mails.
Toutefois, il existe des aspects problématiques tels que ceux que vous avez constatés dans le rapport d’AlgorithmWatch relatif à la Suisse. Quels sont ceux que vous voulez plus particulièrement mettre en avant?
Il y en a plusieurs. En fonction de l’application, il n’est toujours possible de comprendre comment ces systèmes fonctionnent, ce qui pose problème. Pour le logiciel de dictée vocale précédemment évoqué, cela n’a guère d’importance, mais lorsqu’un algorithme bancaire évalue ma solvabilité, je veux savoir sur quoi repose sa décision. De plus, ces systèmes ont besoin d’énormes quantités de données d’une grande valeur qualitative. Lorsqu’elles sont insuffisantes, des décisions erronées peuvent être prises, par exemple lors de l’évaluation du risque de récidive des délinquants.
En voyez-vous d’autres?
Il existe également un risque de discrimination. Un exemple: une agence pour l’emploi souhaite évaluer l’employabilité de chômeurs et utilise pour cela un modèle spécifique. D’un point de vue historique, les femmes avec enfants rencontrent plus de difficultés sur le marché du travail que les hommes sans enfants. Le risque est que cet algorithme privilégie les hommes parce qu’ils ont apparemment de meilleures chances de trouver un emploi.
Il faudrait donc utiliser ces systèmes avec prudence?
Avant tout, il faudrait uniquement les utiliser comme une aide au lieu de les laisser prendre des décisions. Les décisions doivent être prises par des personnes sur la base des données mises à disposition par l’algorithme. De plus, ces personnes doivent être formées afin d’évaluer les données avec un regard critique.
Actuellement, existe-t-il en Suisse des applications algorithmiques qui vous préoccupent?
Selon moi, l’État et les administrations ont clairement conscience de l’existence de questions sensibles. Jusqu’ici, l’État a toujours utilisé ces systèmes de manière très prudente et à l’issue d’investigations exhaustives. Par exemple, un outil de prévision est utilisé pour faciliter le travail de la police en Argovie, à Bâle-Ville et dans la ville de Zurich, mais uniquement de manière très limitée. Il sert uniquement à localiser les secteurs dans lesquels les cambriolages et les vols sont plus fréquents. Par conséquent, les risques de discrimination sont quasiment nuls.
Et qu’en est-il dans le secteur privé?
Je ne peux pas me prononcer en détail. Les entreprises privées sont soumises à moins de limitations légales concernant l’utilisation d’algorithmes, mais elles doivent tout de même respecter les dispositions en matière de protection des données et les restrictions légales. Cependant, leurs motivations sont différentes: l’État souhaite travailler de manière plus efficace «au service des citoyens et dans le respect du droit», quand le secteur privé cherche à innover, à développer de nouvelles applications et à séduire les clients. Une chose est sûre: le secteur public et le secteur privé vont tous deux s’intéresser de plus en plus à ces systèmes à l’avenir. C’est pourquoi une vigilance accrue est requise dès lors que des personnes doivent être évaluées.
En conclusion, on peut dire que la Suisse est sur la bonne voie dans ce domaine?
Pour le moment, oui. Nous menons des investigations, nous avons conscience des problèmes et nous (du moins l’État) avons plus tendance à renoncer à utiliser des systèmes algorithmiques qu’à les déployer sans réfléchir. À moyen terme, il sera toutefois nécessaire d’intervenir pour établir les conditions-cadres légales. Par exemple, même si la nouvelle loi sur la protection des données régit les décisions automatisées, elle ne tient pas compte des risques de discrimination. Il n’y pas lieu de se méfier des algorithmes outre mesure, mais il convient de peser les avantages et les risques et de maîtriser ces derniers. Je pense en outre que de nombreuses personnes n’ont pas encore suffisamment conscience de ce qui nous attend.
Quelles sont les innovations qui vous inquiètent et que nous devrions éviter ici?
Je trouve effrayantes les applications telles que la reconnaissance faciale dans l’espace public qui permettent d’interroger en arrière-plan des bases de données à la recherche d’informations sensibles. Dans certains pays, notamment en Chine, de tels systèmes sont déjà déployés, sous couvert de sécurité et de prévention. Plusieurs états américains ont toutefois interrompu des initiatives pilotes dans ce domaine ou interdit les logiciels de reconnaissance faciale.
Comment peut-on empêcher les algorithmes de prendre des décisions discriminatoires? Cela dépend non seulement des régulations nationales, mais aussi de la manière dont les algorithmes sont programmés, n’est-ce pas?
Tout à fait. C’est pourquoi nous devons sensibiliser les programmateurs et les utilisateurs à cette question. En définitive, c’est un exercice difficile qui implique de trouver le juste équilibre entre la rapidité, la qualité et l’équité des résultats. C’est pourquoi nous ne devons pas simplement laisser cette question à l’informatique. Nous avons besoin d’avis de différentes origines. L’essentiel pour les systèmes d’apprentissage, par exemple, consiste à choisir correctement les données d’entraînement de l’algorithme. Les données issues de pays dans lesquels la composition de la population est totalement différente risquent d’entraîner chez nous des décisions inappropriées.
Existe-t-il des domaines de notre quotidien dans lesquels les algorithmes n’auront jamais leur place?
Oui, par exemple au sein de nos institutions politiques. Les parlementaires, les conseillers, les juristes et les électeurs continueront de prendre eux-mêmes leurs décisions à l’avenir sans recourir aux algorithmes.
Tous ces éléments sont pilotés par des algorithmes
(liste non exhaustive)
En ligne
- Ordre des résultats de recherche dans Google
- Bannières publicitaires en ligne
- Timeline Facebook
- Shopping en ligne
- Sites de rencontre
- Assistants vocaux
- Chatbots
- Suggestions de streaming
- Jeux vidéo
- Correcteur automatique dans Word
Finances
- Évaluation de la solvabilité par les organismes de crédit
- Distributeurs de billets (répartition des billets délivrés en fonction du lieu et de l’heure)
- Transactions boursières
- Programmes de fidélité client (suggestion de produits adaptés)
- (Pré-)sélection des dossiers de candidature des demandeurs d’emploi
Circulation et bureau
- Feux tricolores ou ascenseurs (détermination des heures de pointe)
- Systèmes de navigation ou aide au stationnement des voitures
- Technique de construction (chauffage ou climatisation en fonction de l’heure et de l’utilisation)
Justice
- Évaluation des risques pour la population carcérale (Fall-Screening-Tool) permettant de faire un premier tri concernant les mesures de réintégration pouvant s’appliquer ou non à chacun
- Pronostics de cambriolage (Pre-Crime Observation System) permettant d’estimer dans quels quartiers le risque de cambriolages est particulièrement élevé pendant les 72 heures à venir
Divers
- Machines à sous (veillent à ce que le casino soit toujours gagnant à la fin)
- Prévisions météorologiques (simulations de modèles à partir des données disponibles)
- Assistance auprès des cancérologues à l’hôpital universitaire de Genève (Watson for Genomics) afin de déterminer les traitements appropriés
AlgorithmWatch
Photo/Scène: GettyImages
Votre opinion
Aimez-vous cet article?