Les réseaux sociaux sont devenus des plateformes d'expression incontournables, mais aussi des terrains propices à la prolifération de contenus problématiques. Selon une estimation récente de l'Observatoire du Numérique, près de 4 millions de commentaires haineux sont publiés quotidiennement sur les différentes plateformes. Cette réalité, conjuguée à l'augmentation exponentielle du contenu généré par les utilisateurs, rend la modération manuelle inefficace et insoutenable. La complexité des interactions en ligne nécessite des solutions avancées pour garantir un environnement sûr et respectueux pour tous.
La gestion humaine de la modération, bien que nécessaire, se révèle souvent coûteuse, lente et soumise à des erreurs d'appréciation. De plus, l'exposition répétée à des contenus violents ou haineux peut avoir des conséquences psychologiques négatives sur les modérateurs. L'intelligence artificielle (IA) offre des perspectives nouvelles pour automatiser et améliorer la modération, mais son déploiement soulève des questions éthiques cruciales, notamment en matière de biais algorithmiques et de respect de la liberté d'expression. L'intégration des actions IA est donc une démarche complexe qui nécessite une approche réfléchie.
Panorama des actions IA pour la modération de contenu
L'intelligence artificielle, grâce à des algorithmes sophistiqués et à des techniques d'apprentissage profond, a permis le développement d'un éventail d'outils et de techniques pour automatiser la modération sur les réseaux sociaux. Ces actions IA ciblent différents types de contenus problématiques, des discours haineux à la désinformation, et utilisent des approches variées pour les identifier et les traiter. La combinaison de ces actions, intégrant des systèmes de notation et d'alerte, permet une modération plus complète, rapide et efficace. Comprendre ces différentes approches est essentiel pour optimiser la modération et minimiser les risques associés.
Détection de la toxicité et des discours haineux (hate speech detection)
La détection de la toxicité et des discours haineux, un enjeu majeur pour la sécurité en ligne, est une priorité pour les plateformes de réseaux sociaux. Cette action IA consiste à identifier automatiquement les contenus qui incitent à la haine, à la violence, à la discrimination ou au harcèlement envers des individus ou des groupes en raison de leur race, genre, orientation sexuelle, religion, handicap ou autres caractéristiques protégées. L'objectif est de réduire la propagation de messages haineux et de protéger les utilisateurs des formes d'abus en ligne.
Plusieurs technologies, s'appuyant sur la puissance de l'intelligence artificielle, sont utilisées pour cette détection, notamment le traitement du langage naturel (TLN), l'apprentissage automatique (Machine Learning) et le deep learning. Le TLN permet d'analyser la sémantique et la syntaxe des phrases pour comprendre leur sens et détecter les nuances subtiles du langage. L'apprentissage automatique permet d'entraîner des modèles sur des ensembles de données annotés pour classifier les contenus comme toxiques ou non. Le deep learning, grâce aux réseaux neuronaux profonds, permet de capturer des expressions contextuelles complexes et d'améliorer la précision de la détection. Le défi réside dans la capacité à interpréter le contexte et à distinguer l'humour, le sarcasme ou la critique légitime du discours haineux.
Des exemples concrets incluent les outils proposés par Google Jigsaw avec son Perspective API, qui attribue un score de toxicité aux commentaires en ligne, les solutions de modération de Facebook basées sur DeepText, et diverses plateformes open-source dédiées à la détection de la toxicité, comme Detoxify. Actuellement, l'utilisation de modèles Transformer comme BERT, RoBERTa et DistilBERT pré-entraînés sur de vastes ensembles de données textuelles améliore significativement les performances de ces outils en capturant une meilleure compréhension du contexte et des nuances du langage. Ces outils sont cruciaux pour améliorer la modération et réduire l'impact des discours haineux sur les plateformes.
Identification des fausses informations (fake news detection)
L'identification des fausses informations, un enjeu majeur de désinformation et de manipulation, est un autre défi majeur pour les réseaux sociaux. Cette action IA consiste à détecter automatiquement les informations factuellement incorrectes, trompeuses ou créées dans le but de manipuler l'opinion publique et de perturber le débat démocratique. La propagation de fausses informations peut avoir des conséquences graves sur la démocratie, la santé publique, et la confiance dans les institutions.
Les technologies utilisées pour la détection des fausses informations incluent l'analyse du contenu, la vérification des sources et l'analyse du réseau social. L'analyse du contenu recherche des contradictions, des erreurs factuelles, des sources non fiables, des biais narratifs et des tentatives de manipulation émotionnelle. La vérification des sources croise les informations avec des bases de données de faits vérifiés, des sites de fact-checking reconnus et des sources d'informations fiables. L'analyse du réseau social identifie la propagation des fausses informations par des bots, des comptes suspects et des influenceurs mal intentionnés. La combinaison de ces approches permet d'améliorer la précision et la fiabilité de la détection.
Des exemples concrets incluent le programme de fact-checking collaboratif de Twitter (Birdwatch), qui permet aux utilisateurs de signaler et de vérifier les informations, les outils de détection de fausses nouvelles de Microsoft (Reality Defender) et des solutions utilisant des graphes de connaissances pour identifier les liens entre les entités et les sources, comme Knowly. La combinaison de l'analyse textuelle avec l'analyse d'images et de vidéos (deepfakes) représente une avancée significative dans ce domaine, permettant de détecter les manipulations visuelles sophistiquées. Environ 35% des adultes partagent ou voient de fausses informations en ligne, ce qui souligne la nécessité d'une détection efficace.
Détection des spams et des bots (spam and bot detection)
La détection des spams et des bots est essentielle pour maintenir la qualité de l'expérience utilisateur sur les réseaux sociaux et garantir un environnement de communication authentique. Cette action IA consiste à identifier et à supprimer les comptes automatisés (bots) et les messages non sollicités (spams) qui nuisent à la communication, à l'échange d'informations et à la crédibilité des plateformes. Les spams et les bots peuvent propager des publicités intrusives, diffuser de fausses informations, manipuler les opinions et perturber les conversations en ligne.
Plusieurs technologies sont utilisées pour cette détection, notamment l'analyse du comportement, l'analyse du contenu et les tests CAPTCHA. L'analyse du comportement surveille les schémas de publication, les interactions avec les autres utilisateurs, l'utilisation de hashtags, la fréquence des messages et les heures d'activité. L'analyse du contenu recherche des mots-clés spam, des liens suspects, des publicités agressives, des messages répétitifs et des tentatives de phishing. Les tests CAPTCHA vérifient que l'utilisateur est bien une personne et non un bot en lui demandant de résoudre une tâche simple, comme identifier des images ou déchiffrer un texte. Les techniques d'apprentissage automatique sont utilisées pour identifier les caractéristiques typiques des bots et des spammeurs.
Les filtres anti-spam de YouTube, les systèmes de détection de bots d'Instagram, qui utilisent des algorithmes d'apprentissage automatique pour identifier les comptes suspects, et diverses solutions open-source pour la détection de comportements suspects, comme Botometer, sont des exemples concrets. L'utilisation de l'apprentissage par renforcement pour adapter les modèles de détection aux nouvelles techniques des spammeurs et des créateurs de bots est une évolution prometteuse. On estime que les bots représentent environ 15% de l'activité totale sur Twitter, ce qui souligne l'importance de cette détection.
Modération d'images et de vidéos (image and video moderation)
La modération d'images et de vidéos est devenue une nécessité avec la prolifération des contenus visuels sur les réseaux sociaux, nécessitant des actions IA pointues. Cette action IA consiste à identifier automatiquement les contenus visuels inappropriés ou illégaux, tels que la pornographie, la violence explicite, les discours haineux visuels, la désinformation visuelle (deepfakes), les images de maltraitance infantile et les contenus terroristes. Cette modération est essentielle pour protéger les utilisateurs, en particulier les plus jeunes, et lutter contre la diffusion de contenus préjudiciables, illégaux et dangereux.
Les technologies utilisées pour cette modération incluent la vision par ordinateur (Computer Vision), l'apprentissage profond (Deep Learning) et l'analyse de l'audio. La vision par ordinateur permet de reconnaître les objets, les visages, les scènes et les activités dans les images et les vidéos. L'apprentissage profond permet d'entraîner des modèles sur de grands ensembles de données d'images et de vidéos annotées pour identifier les contenus problématiques. L'analyse de l'audio détecte la parole haineuse, la violence sonore, la musique protégée par le droit d'auteur, les bruits suspects et les signaux d'alerte. L'analyse combinée de l'image et du son permet d'améliorer la précision de la détection.
Des exemples concrets incluent les filtres de contenu de Facebook et YouTube, qui bloquent les contenus inappropriés, les outils de modération d'images de Cloudinary, qui permettent de détecter et de flouter les images sensibles, et des solutions spécialisées dans la détection de deepfakes, comme Sensity AI. Selon certaines estimations, 25% du contenu en ligne est de la vidéo, ce qui souligne l'importance d'une modération efficace de ce type de contenu. La détection de deepfakes, qui utilisent l'IA pour créer des vidéos truquées, représente un défi croissant.
Priorisation et routage des alertes (alert prioritization and routing)
La priorisation et le routage des alertes, une action IA cruciale, visent à améliorer l'efficacité du travail des modérateurs humains et à optimiser la gestion des signalements. L'IA est utilisée pour identifier les alertes les plus urgentes et les acheminer vers les modérateurs humains les plus compétents, en fonction de leur expertise linguistique, de leur connaissance du sujet et de leur fuseau horaire. Cela permet de gagner du temps, de s'assurer que les contenus les plus problématiques sont traités en priorité et de réduire la charge de travail des modérateurs.
Les technologies utilisées incluent le scoring basé sur la gravité et le routage intelligent. Le scoring basé sur la gravité attribue des scores aux contenus signalés en fonction de leur niveau de toxicité, de leur impact potentiel, de leur portée, de leur viralité et de leur probabilité d'enfreindre les règles de la plateforme. Le routage intelligent affecte les alertes aux modérateurs en fonction de leur expertise, de leur disponibilité et de leur charge de travail. L'IA peut également apprendre des décisions des modérateurs pour améliorer la précision du routage à l'avenir.
Les systèmes de gestion des tickets de support intégrant l'IA, comme Zendesk, et les plateformes de modération collaborative alimentées par l'IA, comme Hive, sont des exemples concrets. L'utilisation de l'IA pour personnaliser l'expérience des modérateurs, en leur fournissant des informations contextuelles pertinentes et en automatisant les tâches répétitives, représente une avancée importante dans l'amélioration de l'efficacité de la modération. Les alertes prioritaires sont traitées 40% plus rapidement grâce à l'IA, ce qui permet de réduire la propagation des contenus nuisibles.
Avantages de l'automatisation de la modération par l'IA
L'automatisation de la modération par l'IA offre de nombreux avantages significatifs pour les plateformes de réseaux sociaux, les entreprises et leurs utilisateurs. Elle permet de traiter un volume beaucoup plus important de contenu, de réduire les coûts opérationnels, d'améliorer la cohérence de la modération et de protéger les utilisateurs des contenus nuisibles. L'IA, grâce à sa capacité à analyser rapidement de grandes quantités de données, permet d'améliorer l'efficacité et la qualité de la modération.
- **Efficacité et rapidité :** Traitement d'un volume beaucoup plus important de contenu en un temps réduit. On estime que l'IA peut traiter jusqu'à 1000 fois plus de contenu qu'un modérateur humain, permettant une réaction plus rapide aux incidents.
- **Réduction des coûts :** Diminution du besoin en modérateurs humains, réduisant ainsi les dépenses liées au personnel, à la formation et à la gestion des équipes. Une étude de McKinsey a montré qu'une entreprise peut réduire ses coûts de modération de 30% à 50% en utilisant l'IA.
- **Amélioration de la cohérence :** Application uniforme des règles et des politiques de modération, garantissant une interprétation objective et impartiale des contenus. Les algorithmes appliquent les mêmes règles à tous les contenus, sans biais personnel, ce qui améliore la transparence et la confiance.
- **Diminution de la charge de travail des modérateurs humains :** Réduction de l'exposition aux contenus choquants et traumatisants, améliorant ainsi le bien-être et la santé mentale des modérateurs. La modération manuelle peut provoquer un stress post-traumatique chez les modérateurs, qui sont exposés à des contenus violents et perturbants.
- **Disponibilité 24/7 :** Surveillance et modération continue du contenu, assurant une protection constante des utilisateurs, même en dehors des heures de travail. Les algorithmes peuvent fonctionner 24 heures sur 24, 7 jours sur 7, sans interruption, ce qui garantit une surveillance constante.
- **Réduction de la propagation des contenus nuisibles :** Action plus rapide pour limiter l'impact des discours haineux et des fausses informations, réduisant ainsi leur viralité et leur portée. Un contenu haineux peut être détecté et supprimé en quelques secondes grâce à l'IA, ce qui limite sa diffusion.
Défis et limitations de l'IA en matière de modération
Malgré ses nombreux avantages, l'IA en matière de modération présente des défis et des limitations importants qu'il est crucial de prendre en compte. L'IA n'est pas une solution parfaite et nécessite une supervision humaine, une évaluation continue et une adaptation constante pour garantir son efficacité et minimiser les risques associés. Comprendre ces limitations est essentiel pour éviter de se fier aveuglément à l'IA et pour mettre en place des mécanismes de contrôle et de supervision appropriés.
L'IA peut se tromper et bloquer des contenus légitimes (faux positifs) ou laisser passer des contenus inappropriés (faux négatifs). Les modèles d'IA peuvent être biaisés en fonction des données sur lesquelles ils sont entraînés, ce qui peut conduire à des discriminations. L'IA a du mal à comprendre l'ironie, le sarcasme, l'humour et d'autres formes de communication complexe, nécessitant une expertise humaine pour interpréter le contexte.
- **Précision et faux positifs/négatifs :** L'IA peut identifier à tort du contenu inoffensif comme nuisible (faux positif), ou inversement, ne pas détecter du contenu réellement nuisible (faux négatif). Le taux d'erreur des algorithmes de modération varie entre 5% et 20%, selon la complexité du contenu et la qualité des données d'entraînement.
- **Biais algorithmiques :** Les modèles d'IA peuvent discriminer certains groupes ou opinions, en raison de biais présents dans les données d'entraînement ou dans la conception des algorithmes. La détection de discours haineux peut être plus performante dans certaines langues que dans d'autres, ou peut cibler de manière disproportionnée certains groupes ethniques ou religieux.
- **Compréhension du contexte et de la nuance :** L'IA a du mal avec les subtilités du langage et les expressions contextuelles. L'IA peine à comprendre l'intention derrière les mots, l'ironie, le sarcasme ou l'humour, ce qui peut entraîner des erreurs d'interprétation.
- **Évolution constante des techniques de contournement :** Les créateurs de contenus nuisibles cherchent constamment à déjouer l'IA et à contourner les filtres de modération. Les spams et les discours haineux évoluent constamment, nécessitant une adaptation continue des algorithmes et des techniques de détection.
- **Difficulté à modérer les contenus émergents :** L'IA peut avoir du mal à identifier les nouvelles formes de toxicité, les nouveaux mèmes, les nouvelles expressions slang, les nouvelles techniques de manipulation et les nouvelles tendances en ligne. La modération doit s'adapter en permanence aux évolutions du langage et de la culture en ligne.
- **Transparence et explicabilité :** Il est difficile de savoir pourquoi une IA a pris une certaine décision et comment elle est parvenue à cette conclusion. L'opacité des algorithmes soulève des questions de confiance, de responsabilité et de contrôle démocratique.
- **Coûts de développement et de maintenance :** L'IA nécessite des investissements importants en recherche et développement, en infrastructure, en données, en personnel qualifié et en maintenance continue. Le développement et la maintenance des algorithmes de modération représentent un coût important pour les plateformes.
Implications éthiques et sociales de l'IA pour la modération
L'utilisation de l'IA pour la modération soulève des questions éthiques et sociales complexes qui doivent être abordées de manière responsable et transparente. Il est essentiel de prendre en compte ces implications pour garantir que l'IA est utilisée de manière juste, équitable et respectueuse des droits fondamentaux des utilisateurs.
Comment trouver un équilibre délicat entre la protection des utilisateurs contre les contenus nuisibles et la garantie de la liberté d'expression, un droit fondamental ? Qui est responsable lorsque l'IA commet une erreur de modération et cause un préjudice à un utilisateur ? Comment éviter que l'IA ne reproduise ou n'amplifie les inégalités existantes et ne discrimine certains groupes de population ? L'IA peut-elle involontairement censurer des opinions divergentes ou critiques et étouffer le débat démocratique ? Comment s'assurer que l'IA n'est pas utilisée pour surveiller les utilisateurs, collecter des données personnelles et influencer les opinions politiques ? Quel est le rôle des modérateurs humains dans un environnement de modération automatisée et comment préserver leur expertise et leur autonomie ?
- **Liberté d'expression vs. sécurité en ligne :** Comment protéger les utilisateurs sans censurer les opinions légitimes et sans restreindre indûment la liberté d'expression ? La modération doit trouver un équilibre délicat entre ces deux impératifs.
- **Responsabilité et transparence :** Qui est responsable en cas d'erreur de l'IA et comment garantir la transparence des algorithmes et des processus de décision ? Il est nécessaire de définir des responsabilités claires et d'assurer la transparence des algorithmes et des données d'entraînement.
- **Biais algorithmiques et discrimination :** Comment éviter que l'IA ne discrimine certains groupes et ne reproduise les inégalités sociales ? Il est crucial d'utiliser des données d'entraînement diversifiées, de tester les algorithmes pour détecter les biais et de mettre en place des mécanismes de correction.
- **Impact sur la diversité des opinions :** L'IA peut-elle censurer involontairement des opinions divergentes et étouffer le débat démocratique ? Il faut veiller à ce que la modération n'empêche pas l'expression d'opinions critiques et ne favorise pas un conformisme intellectuel.
- **Surveillance et vie privée :** Comment s'assurer que l'IA n'est pas utilisée pour surveiller les utilisateurs, collecter des données personnelles et influencer les opinions politiques ? La protection de la vie privée, le respect des données personnelles et la limitation de la collecte de données doivent être des priorités.
- **Rôle des modérateurs humains :** Quel est le rôle des humains dans un environnement automatisé et comment préserver leur expertise et leur autonomie ? Les modérateurs humains restent indispensables pour traiter les cas complexes, pour superviser l'IA et pour prendre des décisions éthiques.
Exemples concrets d'implémentation de l'IA dans la modération
De nombreuses plateformes de réseaux sociaux, conscientes des enjeux de modération, utilisent déjà l'IA pour modérer le contenu, avec des résultats variables. Il est utile d'examiner des exemples concrets pour comprendre comment l'IA est mise en œuvre, quels sont les résultats obtenus, quels sont les défis rencontrés et quelles sont les leçons à tirer.
Étude de cas : facebook (meta)
Facebook (Meta) utilise l'IA pour détecter les discours haineux, les fausses informations, les contenus violents, les spams et les bots. L'entreprise a investi massivement dans le développement de modèles d'IA sophistiqués, dans des équipes de modération importantes et dans des partenariats avec des experts en éthique et en sécurité en ligne. Meta affirme que l'IA permet de détecter plus de 95% des discours haineux avant qu'ils ne soient signalés par les utilisateurs, et que plus de 99% des spams sont bloqués avant d'atteindre les boîtes de réception. Cependant, l'entreprise est toujours confrontée à des défis importants en matière de modération, en raison de la complexité du langage, de la diversité des cultures, de l'évolution des techniques de contournement et des accusations de biais algorithmiques. Le budget de Meta pour la sécurité et la modération s'élève à plus de 5 milliards de dollars par an.
Solutions open-source pour une IA accessible
Il existe de nombreuses plateformes open-source et d'outils disponibles pour les développeurs et les chercheurs intéressés par la modération de contenu, rendant l'IA plus accessible. Ces solutions permettent d'expérimenter avec l'IA, de développer des outils de modération personnalisés, de partager les connaissances et de contribuer à l'amélioration des algorithmes. Des exemples incluent des bibliothèques de traitement du langage naturel, comme NLTK et SpaCy, des modèles d'apprentissage automatique pré-entraînés, comme Hugging Face, et des plateformes de collaboration pour la modération, comme Ushahidi. Ces outils favorisent l'innovation et la transparence dans le domaine de la modération.
Startups innovantes : le futur de la modération ?
Plusieurs startups développent des solutions d'IA innovantes pour la modération de contenu, offrant des approches originales et des technologies de pointe. Certaines se concentrent sur la détection de harcèlement ciblé, d'autres sur la vérification des faits en temps réel, d'autres encore sur la modération d'images et de vidéos avec une précision accrue. Ces startups contribuent à améliorer l'efficacité, la précision et la personnalisation de la modération automatisée, et pourraient bien façonner le futur de la modération en ligne. Des exemples incluent Sentropy, spécialisée dans la protection des communautés en ligne contre les abus, et Logically AI, qui utilise l'IA pour combattre la désinformation.
Perspectives d'avenir et recommandations pour une IA responsable
L'IA a le potentiel de transformer la modération des réseaux sociaux, mais il est essentiel d'adopter une approche prudente, responsable, éthique et transparente. L'IA doit être considérée comme un outil au service de l'humain et non comme un substitut à l'humain. Il est important d'améliorer la précision et la robustesse de l'IA, de combiner l'IA avec la modération humaine, de développer des normes et des réglementations claires, de sensibiliser et d'éduquer les utilisateurs, d'investir dans la recherche et le développement, et de promouvoir la transparence et la responsabilité.
- **Amélioration de la précision et de la robustesse de l'IA :** Développer des modèles plus sophistiqués, utiliser des techniques d'apprentissage par renforcement, entraîner les modèles sur des données plus diversifiées, et mettre en place des mécanismes de détection et de correction des biais algorithmiques. L'utilisation de données d'entraînement diversifiées, représentatives de la diversité des cultures, des langues et des opinions, est essentielle.
- **Combinaison de l'IA avec la modération humaine :** Créer des systèmes hybrides qui combinent les forces de l'IA et des humains, en laissant les modérateurs humains prendre les décisions finales dans les cas complexes et en leur fournissant des outils d'aide à la décision basés sur l'IA. Le modèle "Human-in-the-loop" permet de combiner l'efficacité de l'IA avec le jugement et l'expertise des humains.
- **Développement de normes et de réglementations :** Élaborer des règles claires et transparentes pour l'utilisation de l'IA dans la modération, en définissant les responsabilités, les droits des utilisateurs, les procédures de recours et les mécanismes de contrôle. Ces normes doivent garantir la transparence, la responsabilité, la non-discrimination et le respect de la liberté d'expression.
- **Sensibilisation et éducation :** Informer les utilisateurs sur le fonctionnement de l'IA, sur ses limites, sur ses biais potentiels et sur leurs droits en matière de modération. Les utilisateurs doivent connaître leurs droits, les procédures de signalement, les mécanismes de recours et les moyens de contester les décisions de modération.
- **Recherche et développement :** Investir dans la recherche et le développement de nouvelles technologies d'IA pour la modération, en se concentrant sur la réduction des biais, l'amélioration de la précision, la compréhension du contexte et la détection des nouvelles formes de toxicité. La recherche doit également porter sur les implications éthiques et sociales de l'IA pour la modération.
Voici quelques recommandations concrètes aux plateformes de réseaux sociaux :
- Investir dans des équipes de modération diversifiées, composées de personnes ayant des expériences, des cultures et des opinions variées, afin de réduire les biais et d'améliorer la compréhension du contexte.
- Fournir des mécanismes de recours clairs et transparents, permettant aux utilisateurs de contester les décisions de modération et d'obtenir une réponse rapide et motivée.
- Être transparent sur l'utilisation de l'IA, en expliquant aux utilisateurs comment l'IA est utilisée pour modérer le contenu, quelles sont ses limites et comment elle est supervisée.
- Collaborer avec des chercheurs, des experts en éthique, des organisations de la société civile et des représentants des utilisateurs pour élaborer des normes, des réglementations et des bonnes pratiques pour l'utilisation de l'IA dans la modération.
Conclusion : L'IA, un outil puissant à manier avec précaution
L'IA représente un outil puissant et prometteur pour automatiser la modération sur les réseaux sociaux, offrant une efficacité accrue, une réduction des coûts et une amélioration de la protection des utilisateurs. Cependant, son utilisation doit être abordée avec prudence, discernement et responsabilité, en tenant compte des défis, des limitations et des implications éthiques qu'elle soulève. L'IA n'est pas une solution miracle et ne doit pas être considérée comme un substitut à l'humain. Son efficacité dépend de la qualité des données d'entraînement, de la conception des algorithmes, de la supervision humaine et d'une réflexion approfondie sur les enjeux de liberté d'expression, de diversité, de vie privée et de responsabilité. La collaboration étroite et continue entre les plateformes de médias sociaux, les développeurs d'IA, les chercheurs, les régulateurs, les organisations de la société civile et les utilisateurs est essentielle pour construire un environnement en ligne plus sûr, plus inclusif et plus respectueux des droits fondamentaux.