Auteur(s)

Tristan Girard-Gaymard

Tristan Girard-Gaymard

Mathis Campestrin

Mathis Campestrin

Dans cet article

Partager

16/02/2026

Le Tribunal de l’UE donne au DSA son brevet de constitutionnalité

Commentaire de l’arrêt du Tribunal de l’Union européenne, 19 novembre 2025, aff. T-367/23, Amazon EU Sàrl c/ Commission européenne

L’arrêt rendu par le Tribunal de l’Union européenne le 19 novembre 2025 s’inscrit dans ce moment singulier où le droit, confronté à l’émergence de puissances privées dont l’influence sur la vie collective excède parfois celle des États eux-mêmes, doit repenser ses catégories fondamentales. La question posée ne se réduit pas à un simple contrôle de légalité d’un acte de qualification adopté par la Commission européenne. Elle touche à la capacité du droit européen à saisir et réguler ces nouvelles formes de pouvoir que constituent les très grandes plateformes numériques, entités hybrides qui, tout en relevant formellement du droit privé, exercent de facto des fonctions structurantes de l’espace public contemporain comparables à celles qu’exercent traditionnellement les autorités publiques. Le règlement 2022/2065 du 19 octobre 2022, dit Digital Services Act ou DSA, procède d’une ambition qui dépasse l’encadrement de pratiques commerciales déloyales : il vise à instaurer un ordre juridique de l’espace numérique capable de préserver, face à la concentration inédite de pouvoir économique, informationnel et symbolique que représentent les très grandes plateformes, les conditions d’exercice effectif des libertés fondamentales et de fonctionnement des processus démocratiques.

La contestation portée par Amazon révèle l’ampleur des bouleversements conceptuels que suppose ce nouveau régime de régulation. En contestant sa désignation en tant que très grande plateforme en ligne ainsi que la légalité des dispositions du règlement DSA qui définissent les critères de cette désignation et les obligations qui en découlent, la requérante mettait en cause les fondements mêmes de l’architecture régulatrice édifiée par le législateur européen. L’argumentation développée s’articulait autour d’une triple inadéquation : inadéquation du critère quantitatif retenu pour identifier les plateformes devant être soumises au régime d’obligations renforcées, qui ignorerait les différences qualitatives entre les divers types de services ; inadéquation des obligations imposées au regard des risques effectivement engendrés par les places de marché en ligne ; inadéquation, enfin, du dispositif régulatoire dans son ensemble au regard des exigences de proportionnalité découlant de la Charte des droits fondamentaux. Cette triple contestation invitait le Tribunal à se prononcer sur des questions fondamentales touchant à la théorie des droits fondamentaux, à la philosophie de la régulation économique et à l’épistémologie du risque dans les sociétés technologiques contemporaines.

En rejetant l’ensemble des moyens soulevés par la requérante tout en soumettant les dispositions contestées à un contrôle attentif de leur compatibilité avec les exigences de la Charte, le Tribunal opère une synthèse remarquable entre déférence et vigilance. D’une part, il reconnaît au législateur de l’Union une marge d’appréciation substantielle dans la détermination des modalités concrètes de mise en œuvre des objectifs d’intérêt général. D’autre part, il affirme que cette marge d’appréciation n’est pas illimitée et que le juge conserve la faculté de censurer les dispositions manifestement inappropriées ou disproportionnées. Cette dialectique traverse l’ensemble de la décision et lui confère une densité théorique qui dépasse le cas d’espèce. L’arrêt ne se contente pas de valider le régime juridique des très grandes plateformes ; il esquisse les contours d’une conception renouvelée de la régulation dans les sociétés numériques, conciliant l’impératif de protection contre les risques systémiques avec le respect des libertés économiques et des droits fondamentaux.

I. La validation de la notion de risque systémique numérique

La première question concernait la légalité du critère retenu par l’article 33, paragraphe 1, du règlement DSA pour identifier les plateformes soumises aux obligations renforcées. Le choix d’un seuil quantitatif — quarante-cinq millions d’utilisateurs actifs mensuels dans l’Union européenne, soit dix pour cent de la population — plutôt qu’une appréciation qualitative au cas par cas traduit une logique d’objectivation du risque caractéristique de ce que Michel Foucault a qualifié de « gouvernementalité » moderne, privilégiant les techniques de quantification sur les approches casuistiques. L’hypothèse sous-jacente est que la capacité d’une plateforme à engendrer des risques systémiques est corrélée au nombre d’utilisateurs de manière suffisamment étroite pour que ce dernier serve de proxy fiable à une évaluation directe de dangerosité. Cette hypothèse n’allait pas de soi et justifiait la contestation d’Amazon.

A. Les fondements de l’approche par les risques systémiques : transposition au domaine numérique d’un paradigme emprunté au secteur financier

La notion de risque systémique, empruntée au vocabulaire de la régulation financière, désigne traditionnellement le risque qu’une défaillance d’une institution financière se propage par effet de contagion à l’ensemble du système. Sa transposition au domaine numérique soulève des difficultés conceptuelles considérables. Alors que dans le secteur financier, le caractère systémique découle de l’interdépendance technique et économique des institutions, rien de tel ne caractérise les plateformes numériques qui, comme le faisait valoir Amazon, sont largement indépendantes les unes des autres et ne forment pas un « système » au sens propre.

Le risque systémique associé aux très grandes plateformes n’est donc pas un risque de contagion au sein d’un système d’entités interdépendantes, mais un risque pour la société considérée comme un tout, affectant ou susceptible d’affecter une partie significative de la population dans l’exercice de ses droits fondamentaux ou dans sa participation aux processus démocratiques.

Cette conception extensive, que le Tribunal a validée, traduit une prise de conscience fondamentale quant au rôle joué par les très grandes plateformes dans la structuration de l’espace public contemporain. Comme le relève le considérant 75 du règlement DSA, ces plateformes jouent « un rôle important […] s’agissant de faciliter le débat public, les transactions économiques, et la diffusion au public d’informations, d’opinions et d’idées ». Cette reconnaissance suppose que l’on admette que les très grandes plateformes ne sont pas de simples prestataires de services techniques neutres, mais des acteurs qui, par leurs choix de conception, leurs algorithmes de recommandation et leurs politiques de modération, façonnent activement les conditions d’accès à l’information et les modalités de participation au débat public. Elle suppose également que l’on accepte de soumettre ces acteurs privés à des obligations qui s’apparentent davantage à celles traditionnellement imposées aux autorités publiques.

L’article 34, paragraphe 1, du règlement DSA énumère quatre grandes catégories de risques systémiques. La première concerne la diffusion de contenus illicites, notion définie extensivement comme « toute information qui […] n’est pas conforme au droit de l’Union ou au droit d’un État membre », englobant un spectre large allant de la contrefaçon à l’incitation à la haine. La deuxième catégorie vise « tout effet négatif réel ou prévisible pour l’exercice des droits fondamentaux », énumérant notamment la dignité humaine, le respect de la vie privée, la protection des données, la liberté d’expression, la non-discrimination, les droits de l’enfant et la protection des consommateurs. Cette énumération exemplative témoigne d’une approche extensive ne se limitant pas aux seules hypothèses d’illégalité formelle mais englobant toute atteinte substantielle aux valeurs fondamentales. Les troisième et quatrième catégories concernent les effets négatifs sur le discours civique, les processus électoraux et la sécurité publique, ainsi que les violences sexistes, la protection de la santé publique et des mineurs, et les conséquences sur le bien-être physique et mental. Cette extension au-delà du champ de l’illégalité stricto sensu témoigne d’une conception particulièrement ambitieuse de la mission confiée au régulateur, qui ne se borne plus à sanctionner les comportements illicites mais entend prévenir l’émergence de dynamiques sociales ou psychologiques potentiellement pathologiques.

Le Tribunal a validé le choix du critère purement quantitatif en considérant que le législateur n’avait pas commis d’erreur manifeste d’appréciation en estimant que les places de marché dont le nombre d’utilisateurs atteint quarante-cinq millions étaient susceptibles d’engendrer divers risques systémiques. Cette validation repose sur un double constat empirique. D’une part, les places de marché peuvent effectivement faciliter la commercialisation de produits dangereux ou contrefaisants et servir de vecteurs à la diffusion de contenus illicites par le biais des publicités ou commentaires. Amazon elle-même reconnaissait avoir dû mettre en place des règles préventives dans ses conditions générales, confirmant a contrario l’existence d’un risque réel. D’autre part, le fait qu’une plateforme possède un nombre d’utilisateurs élevé accroît le nombre de personnes susceptibles d’être exposées aux contenus problématiques, amplifiant les effets potentiellement délétères. Le seuil de quarante-cinq millions constitue donc un indicateur raisonnable de la capacité à engendrer des risques systémiques, même s’il ne permet pas de saisir toutes les nuances qualitatives entre les divers types de services.

B. Le contrôle de proportionnalité comme instrument de conciliation entre l’impératif de régulation et le respect des libertés économiques

La reconnaissance de la légitimité de l’objectif d’intérêt général ne dispensait pas le Tribunal d’un contrôle attentif de la proportionnalité des ingérences dans les droits fondamentaux. Ce contrôle revêt une importance particulière dans un domaine où les choix du législateur reposent sur des appréciations complexes et prospectives quant à l’évolution des technologies et des usages. L’exercice auquel s’est livré le Tribunal illustre tout à la fois la sophistication méthodologique du contrôle de proportionnalité et les difficultés inhérentes à un tel contrôle face à l’incertitude empirique et à la complexité technique.

Amazon invoquait en premier lieu une violation de la liberté d’entreprise, consacrée par l’article 16 de la Charte, en faisant valoir que les obligations imposées par les articles 34 à 43 du règlement DSA font supporter une charge importante et requièrent des modifications complexes et coûteuses des systèmes informatiques. Le Tribunal a admis que ces obligations constituaient effectivement une ingérence dans la liberté d’entreprise, reconnaissant ainsi qu’il ne sous-estime pas l’ampleur des contraintes imposées. Toutefois, la liberté d’entreprise ne constitue pas une prérogative absolue et peut être soumise à un large éventail d’interventions de la puissance publique dans l’intérêt général. Cette affirmation traduit une conception européenne des libertés économiques comme des libertés-participation dont l’exercice s’inscrit nécessairement dans un cadre normatif défini par le législateur, conception qui diffère de la tradition constitutionnelle américaine où liberté contractuelle et propriété privée bénéficient d’une protection particulièrement renforcée.

Le Tribunal a considéré que la liberté d’entreprise devait être conciliée avec l’article 38 de la Charte qui tend à assurer un niveau élevé de protection des consommateurs. Conformément à une jurisprudence constante, l’importance de cet objectif est susceptible de justifier des conséquences économiques négatives, même considérables, pour certains opérateurs. Cette approche témoigne d’une hiérarchisation implicite accordant un poids particulièrement important à la protection des consommateurs et à la prévention des risques systémiques.

S’agissant du contrôle de proportionnalité stricto sensu, le Tribunal a procédé à une analyse structurée en trois temps. Premièrement, il a vérifié l’aptitude des obligations à réaliser l’objectif de prévention des risques systémiques, considérant que les différentes obligations prévues par les articles 34 à 43 contribuent effectivement à l’identification, l’évaluation et l’atténuation de ces risques. Deuxièmement, il a examiné si les obligations n’allaient pas au-delà du strictement nécessaire. Amazon suggérait des mesures alternatives moins contraignantes : exclure les places de marché, retenir des critères qualitatifs, limiter l’accès aux registres de publicité aux seuls chercheurs et autorités. Le Tribunal a rejeté ces arguments en relevant que ces alternatives ne permettraient pas d’atteindre le même niveau de protection. L’exclusion des places de marché ne se justifiait pas dès lors qu’elles sont susceptibles d’engendrer de nombreux risques systémiques. Le recours à des critères qualitatifs aurait pour inconvénient de rallonger et complexifier le processus de désignation tout en introduisant une incertitude juridique préjudiciable. La limitation de l’accès aux registres priverait les médias et associations de consommateurs de la possibilité de contrôler les publicités diffusées. Troisièmement, le Tribunal a apprécié si l’ingérence n’était pas disproportionnée, soulignant que les obligations demeurent ciblées, structurées et entourées de garanties procédurales.

Le Tribunal a rejeté de manière concise le moyen tiré de la violation du droit de propriété garanti par l’article 17 de la Charte, relevant qu’Amazon ne développait aucune argumentation substantielle et que les obligations, bien qu’imposant des charges administratives, ne privent pas les fournisseurs de la propriété de leurs plateformes. Cette analyse s’inscrit dans une jurisprudence selon laquelle la réglementation de l’usage des biens ne constitue pas en elle-même une ingérence dans le droit de propriété, l’article 17 disposant expressément que « l’usage des biens peut être réglementé par la loi dans la mesure nécessaire à l’intérêt général ».

Le moyen tiré de la violation du principe d’égalité de traitement appelait une analyse plus substantielle. Amazon soutenait que l’article 33 traite de la même manière les différents types de plateformes alors qu’ils engendreraient des risques différents. Le Tribunal a considéré que, compte tenu de l’objet du règlement DSA qui vise à prévenir les risques systémiques pour la société dans son ensemble, les différents types de plateformes atteignant le seuil de quarante-cinq millions d’utilisateurs se trouvent dans une situation comparable, dès lors qu’elles sont toutes susceptibles d’exposer une partie significative de la population à des contenus potentiellement problématiques. Amazon contestait également le traitement différencié entre plateformes dépassant le seuil et celles restant en deçà. Le Tribunal a rappelé que le législateur a considéré qu’une plateforme engendre des risques systémiques à l’échelle de l’Union lorsqu’elle atteint dix pour cent de la population, privilégiant une approche clairement supranationale.

II. La validation des obligations pesant sur les très grandes plateformes

Au-delà de la validation du critère de désignation, l’arrêt présente un intérêt majeur dans l’analyse de plusieurs obligations spécifiques. Amazon contestait l’obligation de proposer une option de recommandation non fondée sur le profilage (article 38), l’obligation de tenir un registre public des publicités (article 39), et l’obligation de donner accès à certaines données à des chercheurs agréés (article 40). L’examen de ces obligations permet de saisir la philosophie générale du dispositif, reposant sur une triple exigence de transparence, de responsabilisation et de contrôle démocratique. Cette philosophie s’inscrit dans ce que l’on pourrait qualifier, en reprenant la terminologie foucaldienne, de « gouvernementalité algorithmique », mode de gouvernement qui ne cherche pas tant à interdire qu’à rendre visibles les mécanismes de fonctionnement des plateformes et à créer les conditions d’un débat public éclairé.

A. L’obligation de proposition d’options de recommandation non fondées sur le profilage

L’article 38 du règlement DSA constitue l’une des innovations les plus remarquables, visant à permettre aux utilisateurs de choisir les informations auxquelles ils sont exposés en leur offrant la possibilité de ne se voir recommander que des produits dont la sélection n’a pas été influencée par le profilage. L’enjeu dépasse la seule protection des données personnelles et touche à la question plus fondamentale de savoir dans quelle mesure les individus doivent conserver un certain degré de maîtrise sur les mécanismes déterminant les informations auxquelles ils sont exposés, ou s’il convient d’admettre que cette détermination puisse être entièrement déléguée à des algorithmes opaques guidés par l’objectif d’optimisation de l’engagement.

Amazon contestait cette obligation en invoquant une violation de sa liberté d’expression commerciale, arguant qu’elle limitait sa capacité à présenter les produits les plus pertinents aux consommateurs. Cette argumentation repose sur l’hypothèse selon laquelle les systèmes de recommandation fondés sur le profilage constituent le moyen le plus efficace de faire correspondre l’offre aux préférences des consommateurs. Or, une abondante littérature en sciences sociales a montré que les préférences individuelles sont largement endogènes aux dispositifs qui les sollicitent et que les systèmes de recommandation ne révèlent pas des préférences préexistantes mais contribuent activement à les façonner. Dans cette perspective, l’article 38 peut être compris comme un dispositif visant à préserver un certain degré de pluralisme dans les modalités d’exposition informationnelle et à éviter que les utilisateurs ne soient enfermés dans des bulles de filtrage.

Le Tribunal a admis que l’article 38 constitue une ingérence dans la liberté d’expression et d’information des places de marché. Toutefois, il a estimé cette ingérence justifiée et proportionnée. S’agissant de la justification, il a relevé que l’article 38 renforce les droits des consommateurs en leur offrant la possibilité d’exprimer un choix, contribuant ainsi à un niveau élevé de protection des consommateurs. Cette disposition est susceptible de prévenir un risque systémique au titre de l’article 34, paragraphe 1, sous b). S’agissant de la proportionnalité, le Tribunal a souligné plusieurs éléments. Premièrement, l’article 38 ne restreint pas la liberté des fournisseurs pour présenter les produits dans le cadre d’un système non fondé sur le profilage, laissant une large marge de manœuvre. Deuxièmement, cette disposition n’interdit pas de proposer des systèmes fondés sur le profilage, imposant seulement d’offrir également une option alternative. Les utilisateurs conservent la possibilité d’opter pour le profilage et peuvent y revenir s’ils le souhaitent. Troisièmement, cette obligation ne porte pas préjudice aux consommateurs mais renforce leurs droits en leur offrant un choix. Le Tribunal a également écarté l’argument selon lequel l’article 38 favoriserait les grandes entreprises au détriment des PME, relevant qu’Amazon n’expliquait pas pourquoi les grandes entreprises ne développeraient pas de produits de niche ni pourquoi les places de marché ne permettraient pas des recherches par critères.

B. Les obligations de transparence publicitaire et d’accès aux données : la construction d’une infrastructure de contrôle démocratique

L’obligation de tenir un registre public des publicités (article 39) constitue une innovation majeure dont la portée dépasse la protection des consommateurs pour toucher à l’instauration d’un contrôle démocratique sur les mécanismes de ciblage publicitaire. Cette disposition impose de publier un registre contenant notamment le contenu des publicités, l’identité de l’annonceur, la période de diffusion, les paramètres de ciblage et le nombre de destinataires atteints. L’obligation vise à permettre un triple niveau de contrôle : individuel par chaque utilisateur qui peut comprendre pourquoi il est exposé à telle publicité ; collectif par les médias et associations de consommateurs qui peuvent identifier les pratiques problématiques ; institutionnel par les autorités de régulation et chercheurs qui peuvent analyser les dynamiques d’ensemble.

Amazon contestait cette obligation en invoquant une violation de son droit au respect de la vie privée, arguant que la divulgation des informations relatives aux publicités pourrait causer un préjudice commercial en révélant des éléments de stratégie commerciale aux concurrents. Le Tribunal a reconnu que l’article 39 constitue une ingérence dans le droit au respect de la vie privée, confirmant que la protection offerte par l’article 7 de la Charte s’étend aux activités professionnelles et commerciales des personnes morales. Toutefois, il a estimé cette ingérence justifiée et proportionnée. S’agissant de la justification, le Tribunal a rappelé que les limitations visent à réduire les risques systémiques afin de contribuer à un niveau élevé de protection des consommateurs. Le registre permet d’informer les consommateurs mais également de permettre aux médias et associations de contrôler les publicités diffusées, notamment pour prévenir la promotion de produits illégaux ou inappropriés auprès de publics vulnérables comme les mineurs.

S’agissant de la proportionnalité, le Tribunal a souligné plusieurs éléments.

Premièrement, les informations ne portent que sur une partie limitée de l’activité économique (Amazon reconnaissait que ses revenus publicitaires ne représentent que sept pour cent de ses revenus totaux).

Deuxièmement, une partie des informations, comme celles relatives au contenu des publicités et aux produits concernés, ne sont pas confidentielles car publiquement accessibles par nature.

Troisièmement, les informations commercialement les plus sensibles, notamment celles relatives au succès d’une publicité mesuré par le taux de conversion, ne font pas partie des informations à divulguer. Quatrièmement, l’article 39 exclut expressément la diffusion de toute donnée à caractère personnel des destinataires. L’ensemble de ces éléments permet de conclure que le législateur a opéré une mise en balance raisonnable entre l’impératif de transparence et la protection des intérêts commerciaux légitimes.

L’obligation de donner accès à certaines données à des chercheurs agréés (article 40) constitue l’une des dispositions les plus ambitieuses du texte. Cette obligation se décline en deux volets. D’une part, l’article 40, paragraphe 4, prévoit que, sur demande motivée du coordinateur pour les services numériques, les fournisseurs doivent fournir l’accès aux données à des chercheurs agréés, à la seule fin de procéder à des recherches contribuant à la détection et à la compréhension des risques systémiques. Ce premier volet s’inscrit dans une logique d’expertise mobilisée au service de la régulation publique. D’autre part, l’article 40, paragraphe 12, impose de donner accès aux données publiquement accessibles à des chercheurs remplissant certaines conditions, s’inscrivant dans une logique plus large d’ouverture des données à la communauté scientifique.

Amazon contestait ces obligations en invoquant une violation de son droit au respect de la vie privée, arguant qu’elles pourraient conduire à communiquer une quantité « illimitée » de données confidentielles sans garanties suffisantes pour préserver leur confidentialité. Le Tribunal a rejeté cette argumentation en s’appuyant sur un double ordre de considérations. D’une part, il a rappelé que les places de marché atteignant le seuil de quarante-cinq millions d’utilisateurs sont effectivement susceptibles d’engendrer divers risques systémiques, de sorte que l’objectif poursuivi par l’article 40 est parfaitement légitime. D’autre part, il a considéré que l’article 40 prévoit des garanties suffisantes. L’article 40, paragraphe 5, permet au fournisseur de demander la modification de la demande d’accès aux fins de protection des données confidentielles. L’article 40, paragraphe 8, impose aux chercheurs de démontrer qu’ils sont en mesure de préserver la confidentialité des données et de décrire les mesures techniques et organisationnelles appropriées. Le Tribunal a rejeté l’argument selon lequel le législateur aurait dû décrire dans le règlement les mesures concrètes que les chercheurs devaient adopter, considérant qu’il pouvait se contenter d’imposer une obligation de démonstration de la capacité à préserver la confidentialité. Cette approche privilégie la responsabilisation des acteurs plutôt que la prescription détaillée, traduisant une logique de régulation par objectifs présentant l’avantage de la flexibilité.

En définitive, l’arrêt du 19 novembre 2025 constitue une contribution majeure à l’élaboration d’un droit européen de la régulation des plateformes numériques. En validant l’architecture du dispositif instauré par le règlement DSA tout en le soumettant à un contrôle attentif de sa compatibilité avec la Charte, le Tribunal opère une synthèse remarquable entre reconnaissance de la marge d’appréciation du législateur, affirmation du rôle du juge comme gardien des droits fondamentaux, pragmatisme régulatoire face à l’incertitude empirique, et rigueur méthodologique dans le contrôle de proportionnalité. La décision consacre une approche fonctionnelle de la notion de risque systémique cherchant à appréhender la réalité de l’influence exercée par les très grandes plateformes sur la société contemporaine. Elle affirme que la protection des consommateurs, la prévention des atteintes aux droits fondamentaux et la sauvegarde de l’intégrité des processus démocratiques constituent des objectifs d’intérêt général d’une importance particulière, susceptibles de justifier des ingérences substantielles dans les droits économiques des opérateurs. Si Amazon a annoncé son intention de former un pourvoi, il apparaît d’ores et déjà que la Cour de justice aura des difficultés à censurer une décision aussi solidement motivée et aussi consciente des enjeux théoriques et pratiques soulevés par la régulation des très grandes plateformes numériques.

La validation du cadre régulatoire du DSA par le Tribunal constitue donc très probablement une étape décisive dans l’affirmation d’un modèle européen de régulation des plateformes numériques, modèle cherchant à préserver un équilibre délicat entre innovation économique, protection des consommateurs, sauvegarde des valeurs fondamentales et préservation des conditions d’exercice effectif des libertés dans l’espace public numérique.

Ces articles peuvent vous intéresser