Vie privée & cybersécurité

Messages privés scannés par l’état ? Chat Control en Europe expliqué

Chat Control en Europe: l’UE prépare-t-elle des messages privés scannés par l’état ? Lois, chiffrement, métadonnées, risques et protections, expliqués simplement.

smartphone générique affichant une bulle de chat chiffrée avec un cadenas, drapeau de l’Union européenne stylisé en arrière-plan
Vie privée numérique en Europe - Image générée par IA

Messages privés scannés par l’état : que prévoit l’UE pour nos chats ?

Le débat autour du “Chat Control” est revenu avec force sur la scène européenne à l’été 2025. Officiellement, il s’agit de la proposition COM(2022)209 (CSAR), présentée par la Commission européenne le 11 mai 2022, mais dont les négociations connaissent une accélération décisive cette année. Objectif affiché : prévenir, détecter et signaler les abus sexuels sur enfants en ligne (CSAM). Après plusieurs reports, la présidence danoise du Conseil de l’UE a relancé le dossier et pousse désormais pour un vote à l’automne 2025.

Concrètement, les fournisseurs (messageries, réseaux sociaux, e-mails, cloud, jeux en ligne, apps de rencontres) devraient :

  • Évaluer leurs risques d’exposition au CSAM (article 3).
  • Mettre en place des mesures préventives (articles 4 à 6).
  • Exécuter, le cas échéant, des “injonctions de détection” délivrées par une autorité compétente en cas de “risque important” (articles 7 à 11).

Ces injonctions pourraient exiger un scan automatique des messages privés, pièces jointes et médias, avec signalement aux autorités si du contenu suspect est détecté. Le champ est large: communications interpersonnelles, hébergeurs, plateformes de partage, services de courrier électronique, cloud et services facilitant les échanges. Un Centre européen est envisagé pour fournir des outils (bases d’empreintes cryptographiques de CSAM connus), coordonner et centraliser les signalements. Pour les plateformes et pour vous, cela pourrait signifier des analyses automatisées des conversations, déclenchées par décisions d’autorités compétentes et, en principe, sous contrôle judiciaire.

Au-delà de l’enjeu de sécurité, la question est juridique: jusqu’où l’État peut-il aller sans violer la confidentialité des correspondances et la vie privée? Le projet se heurte à des cadres existants (RGPD, directive ePrivacy) qui exigent des traitements légitimes, proportionnés et minimisés.

Le règlement (UE) 2021/1232 a déjà instauré, le 1er juillet 2021, une dérogation temporaire à ePrivacy permettant aux services de détecter volontairement du CSAM. Cette clause expire le 31 décembre 2026, poussant l’UE à définir un cadre pérenne. Les autorités de protection des données (EDPB/EDPS) ont toutefois alerté, en 2022-2023, sur des atteintes graves aux droits fondamentaux, notamment en cas de scanning non ciblé.

Côté constitutionnel, la Charte des droits fondamentaux (articles 7 et 8) protège la vie privée et les données personnelles. La CJUE a déjà censuré des régimes de surveillance généralisée, notamment sur la conservation indifférenciée de données. Des dispositifs non ciblés et permanents sont régulièrement jugés disproportionnés.

  • Principe: confidentialité des communications (ePrivacy), minimisation (RGPD), respect de la vie privée (Charte).
  • Dérogations: possibles mais strictement encadrées. La dérogation 2021/1232 est exceptionnelle et limitée dans le temps (jusqu’au 31/12/2026).
  • Jurisprudence CJUE: très défavorable aux mécanismes indifférenciés. Un scanning large et permanent a de fortes chances d’être jugé disproportionné.
  • Base juridique: le débat “marché intérieur” vs “coopération judiciaire/pénale” pèse sur la procédure d’adoption et les futurs contentieux.

Chiffrement balance cadenas œil

En bref: imposer un scan généralisé des messages privés serait difficilement conciliable avec la jurisprudence. Des injonctions ciblées, limitées dans le temps, proportionnées et contrôlées par un juge auraient davantage de chances de résister au contrôle juridictionnel, mais tout dépendra de leur mise en œuvre concrète.

Comment fonctionnerait le scan automatique des chats ?

Techniquement, deux approches dominent: le scan côté appareil (client-side scanning) et le scan côté serveur.

  • Scan côté appareil (on-device): analyse locale sur votre smartphone/ordinateur, avant chiffrement et envoi. L’algorithme compare images, vidéos, sons et parfois textes à des empreintes (“hash”) de CSAM connus. En cas de correspondance, un signalement est généré.
  • Scan côté serveur: analyse après l’envoi, sur les serveurs du service. Le contenu doit être accessible au serveur, ce qui n’est pas le cas avec le chiffrement de bout en bout (E2EE), sauf à modifier l’architecture.

Les autorités de protection des données européennes soulignent le caractère hautement intrusif d’une détection généralisée et exigent des garanties strictes. Ces systèmes reposent sur des algorithmes (et parfois de l’IA) faillibles: faux positifs (contenus légitimes signalés) et faux négatifs (contenus illégaux non détectés). Les métriques d’erreur auditées restent rares, compliquant l’évaluation indépendante.

Avantages/inconvénients: on-device vs serveur

  • Côté appareil:
    • Avantages: détection avant envoi, possible même avec E2EE; traitement local.
    • Inconvénients: fragilise la promesse de l’E2EE; risque de détournement; charge sur l’appareil; audit indépendant difficile.
  • Côté serveur:
    • Avantages: centralisé, plus facile à contrôler et auditer; pas de modification des apps.
    • Inconvénients: incompatible avec E2EE sans affaiblissement; exposition accrue des données côté plateforme.

Scan automatique des chats : qui contrôle l’algorithme et l’audit ?

Le projet vise un Centre européen fournissant des outils (bases de hash, coordination). Des questions restent clés:

  • Qui valide les modèles de détection et comment mesurer biais et performances?
  • Quels audits indépendants, avec quelle transparence?
  • Comment éviter les dérives d’usage (extension de finalités) et limiter les faux positifs?

Les EDPB/EDPS recommandent des audits indépendants, la transparence sur les modèles et des garde-fous procéduraux robustes.

llustration schématique vectorielle montrant un smartphone analysant localement des médias (icônes image/vidéo/texte) puis un serveur effectuant un scan

Chiffrement de bout en bout expliqué : backdoor dans les messageries ?

Le chiffrement de bout en bout (E2EE) garantit que seuls l’expéditeur et le destinataire peuvent lire le message. Il repose sur des clés cryptographiques échangées ou dérivées lors de l’initialisation. Le serveur ne transporte qu’un paquet illisible.

Encadré — Chiffrement de bout en bout en 60 secondes

  • Vous écrivez votre message; l’app le chiffre localement.
  • Le serveur transporte un “paquet illisible”.
  • Seul le destinataire détient la clé de lecture.

Introduire une backdoor dans les messageries, c’est ouvrir un accès alternatif au contenu. Une fois la porte créée, il devient plus difficile d’en prévenir l’abus ou l’exploitation par des acteurs malveillants. D’où la position de nombreuses messageries pro-confidentialité en faveur d’un E2EE sans affaiblissement.

Peut-on “scanner sans casser” le chiffrement ?

Le client-side scanning promet de préserver l’E2EE en analysant avant chiffrement. Techniquement, l’E2EE n’est pas rompu en transit. Mais:

  • L’appareil de l’utilisateur devient le point d’inspection le plus sensible.
  • Le code d’analyse peut évoluer par mises à jour, élargissant la portée du scanning.
  • Vous ne pouvez ni vérifier précisément ce qui est scanné, ni contester aisément un signalement.

Le 1er novembre 2023, la commission LIBE du Parlement européen a adopté une position s’opposant au scanning généralisé et aux portes dérobées qui affaibliraient le chiffrement.

Surveillance des conversations en ligne et analyse des métadonnées des messages

La surveillance des conversations en ligne ne concerne pas que le contenu. Les métadonnées (qui parle à qui, quand, d’où, avec quel appareil) sont très révélatrices.

Quelles données pourraient être examinées?

  • Contenu: texte, images, vidéos, audio, pièces jointes, si l’injonction le prévoit.
  • Empreintes (hash): comparaison à des bases de CSAM connus, fournies par un Centre européen.
  • Métadonnées: identifiants de compte, horodatage, fréquences, tailles de messages, adresses IP.

Analyse des métadonnées des messages : ce que cela révèle

Les métadonnées permettent de cartographier:

  • Vos réseaux sociaux (contacts, groupes).
  • Vos habitudes (rythmes d’activité, fuseaux horaires).
  • Vos déplacements (via adresses IP ou localisation).

À grande échelle, le profilage devient possible, même sans lire le contenu. C’est l’une des raisons de la prudence constante de la CJUE envers la surveillance indifférenciée.

Impacts sur l’anonymat et le profilage

  • Réduction de l’anonymat, surtout si des identifiants techniques sont conservés.
  • Effets “dominos” si les données circulent entre services ou autorités, même avec finalités limitées.

graphique en réseau stylisé montrant des nœuds anonymes reliés (contacts, heures, IP) autour d’un smartphone générique

Détection de contenus illicites, faux positifs et impacts sur la liberté d’expression

Le cas d’usage officiel est la lutte contre le CSAM. À ce stade, l’extension à d’autres finalités (ex. terrorisme) n’est pas prévue par le CSAR et nécessiterait un fondement dédié si elle était envisagée. Le risque réside dans la réutilisation de l’infrastructure de détection.

Faux positifs et modération à l’échelle

  • Les taux d’erreur (images, vidéos, texte, audio) sont peu documentés publiquement.
  • Des signalements injustifiés peuvent avoir des conséquences graves (blocage de compte, enquêtes, stigmatisation), y compris pour des contenus familiaux mal classés.
  • À grande échelle, même un faible taux d’erreur produit un volume significatif de faux positifs.

Impacts sur la liberté d’expression

  • La perspective d’un scan automatique peut dissuader des échanges légitimes (éducation à la sexualité, santé), par peur de mauvaise classification.
  • Des communautés vulnérables peuvent s’autocensurer, ce qui porte atteinte à la liberté d’expression.

Faux positifs: comment ça arrive ?

  • Mauvais appariement d’empreinte (hash) sur des images proches mais légales.
  • Contexte ignoré: un algorithme détecte un motif sans comprendre l’intention.
  • Effets de compression, recadrage ou faible qualité perturbant l’analyse.

Sécurité vs vie privée : le débat qui divise

Arguments des partisans

  • Protéger les victimes et freiner la diffusion de CSAM est un impératif moral.
  • Le volume des signalements est massif: 36,2 millions recensés en 2023 dans l’UE.
  • Sans outils de détection, des contenus échappent aux radars, surtout sur services chiffrés.

Arguments des opposants

  • Proportionnalité: un scanning non ciblé s’apparente à de la surveillance de masse, contraire à la Charte et à la jurisprudence de la CJUE.
  • Sécurité globale: introduire des backdoors affaiblit l’écosystème pour tous, face aux cybercriminels compris.
  • Dérives possibles: une fois l’infrastructure déployée, les finalités peuvent s’étendre.

Comparaisons internationales (Royaume-Uni, États-Unis, Suisse)

  • Plusieurs pays ont proposé des mécanismes proches (détection côté appareil, obligations de déchiffrement), vivement critiqués pour leur impact sur le chiffrement et la vie privée.

Comment protéger ses conversations dès maintenant

En attendant l’issue de la loi européenne sur la surveillance numérique, vous pouvez renforcer votre confidentialité sans sacrifier votre sécurité.

Choisir des messageries axées sur la confidentialité

  • Privilégiez les services avec chiffrement de bout en bout par défaut (Signal, WhatsApp).
  • Vérifiez la politique de métadonnées: quelles données et combien de temps?
  • Préférez des apps ouvertes à l’audit indépendant.

Paramétrer la sécurité

  • Activez la vérification d’identité des contacts (codes de sécurité, clés).
  • Verrouillez l’app par code/biométrie; activez les sauvegardes chiffrées si disponibles.
  • Limitez les aperçus de notifications; bloquez les captures d’écran si l’app le permet.

Bonnes pratiques (opsec de base)

  • Mettez à jour régulièrement vos apps et votre OS.
  • Méfiez-vous des liens et pièces jointes; vérifiez l’expéditeur.
  • Minimisez le partage d’informations sensibles; privilégiez des groupes privés fiables.

Checklist — Protéger ses conversations

  • Chiffrement E2EE activé par défaut.
  • Vérification de sécurité des contacts effectuée.
  • Sauvegardes chiffrées et verrouillage de l’app.
  • Mises à jour automatiques activées.
  • Prudence sur liens, pièces jointes et données sensibles.

Q&R express

  • L’UE pourra-t-elle lire mes messages chiffrés si le texte passe? Pas “en transit” avec l’E2EE, mais des injonctions de détection pourraient imposer un scan côté appareil avant envoi, sous conditions.
  • Quelles messageries seraient les plus touchées? Les services E2EE-by-design, très utilisés, devraient arbitrer entre architecture technique et obligations si des injonctions s’appliquent.

Calendrier, pays concernés et prochaines étapes de la loi européenne sur la surveillance numérique

Le processus suit la voie classique: Commission (proposition), Parlement et Conseil (négociations), puis adoption et application. Après plusieurs blocages en 2023-2024, le texte revient à l’agenda en septembre 2025, avec un compromis attendu au Conseil.

Processus législatif et échéances

  • 01/07/2021: adoption du règlement (UE) 2021/1232, dérogation à ePrivacy jusqu’au 31/12/2026.
  • 11/05/2022: présentation de la proposition CSAR (COM(2022)209) par la Commission.
  • 01/11/2023: la commission LIBE du Parlement adopte une position atténuée, refusant le scanning généralisé et les backdoors.
  • 20/06/2024: le Conseil JAI ajourne un vote faute de majorité qualifiée.
  • 12/09/2025: finalisation du compromis par les États membres.
  • 14/10/2025: vote prévu au Conseil de l’UE, étape décisive pour l’avenir du texte.

Chronologie clé du Chat Control en Europe

  • 01/07/2021 → Dérogation ePrivacy (2021/1232) jusqu’au 31/12/2026.
  • 11/05/2022 → Présentation CSAR/“Chat Control”.
  • 01/11/2023 → Position LIBE atténuée.
  • 20/06/2024 → Vote du Conseil JAI ajourné.
  • 12/09/2025 → Présidence danoise présente un compromis.
  • 14/10/2025 → Vote du Conseil attendu.

Ce qui pourrait encore évoluer

  • Périmètre des injonctions: ciblage, durée, exclusions explicites de l’E2EE.
  • Garde-fous procéduraux: contrôle judiciaire, voies de recours en cas de faux positifs.
  • Gouvernance du Centre européen: pouvoirs, flux de données, sécurité et audit.
  • Base juridique finale: déterminante pour les majorités et les risques de contentieux.

Que faire en tant que citoyen

  • Vous informer et suivre les versions du texte.
  • Participer aux consultations publiques.
  • Contacter vos élus (européens et nationaux) pour défendre votre vie privée numérique.

Conclusion

Le cœur du débat n’est pas “faut-il protéger les enfants?” mais “comment le faire sans diluer nos droits fondamentaux?”.

L’équilibre sécurité vs vie privée se joue dans les détails: ciblage des injonctions, contrôle judiciaire, transparence des algorithmes, audits indépendants. À court terme, le dossier “Chat Control en Europe” reste ouvert au Conseil: attendez-vous à des arbitrages serrés. En attendant, gardez vos messageries à jour, appliquez les bonnes pratiques, et suivez l’évolution des avis (EDPB/EDPS) et de la CJUE. La manière dont l’UE encadrera la détection — et ses garde-fous — déterminera l’ampleur réelle du risque pour votre vie privée numérique.

Sources