Pourquoi l'EFF ne pense pas que les changements récents améliorent la censure du KOSA
La dernière version de la Kids Online Safety Act (KOSA) n’a pas changé notre vision critique de la législation. Les changements ont conduit certaines organisations à abandonner leur opposition au projet de loi, mais nous pensons toujours qu’il s’agit d’un projet de censure dangereux et inconstitutionnel qui permettrait aux représentants de l’État de cibler les services et les contenus en ligne qu’ils n’aiment pas. Nous respectons le fait que différents groupes peuvent tirer leurs propres conclusions sur la manière dont KOSA affectera la capacité de chacun à accéder à une expression licite en ligne. L'EFF reste cependant fidèle à notre vision de longue date selon laquelle l'imposition d'une vague obligation de diligence à un large éventail de services en ligne afin d'atténuer des préjudices spécifiques basés sur le contenu du discours en ligne entraînera ces services à imposer une vérification de l'âge et des restrictions de contenu. Au moins un groupe a qualifié les préoccupations de l’EFF de propagation de « désinformation ». Nous ne sommes pas. Mais pour nous assurer que tout le monde comprend pourquoi l’EFF continue de s’opposer au KOSA, nous avons voulu détailler plus en détail notre interprétation du projet de loi et comparer nos points de vue à ceux des autres – à la fois partisans et critiques.
Ci-dessous, nous passons en revue certaines des critiques les plus courantes que nous avons reçues – et celles que le projet de loi a reçues – pour aider à expliquer notre point de vue sur ses impacts probables.
L'efficacité de KOSA
Premièrement, et c’est le plus important : nous avons des désaccords sérieux et importants avec les défenseurs de KOSA sur la question de savoir si cela empêchera de futurs préjudices aux enfants en ligne. Nous sommes profondément attristés par les histoires partagées par de nombreux sympathisants et parents sur les préjudices subis par leurs enfants en ligne. Et nous voulons continuer à discuter avec ces parents, sympathisants et législateurs des moyens par lesquels l'EFF peut travailler avec eux pour prévenir tout préjudice causé aux enfants en ligne, tout comme nous continuerons à discuter avec les personnes qui défendent les avantages des médias sociaux. Nous croyons, et avons préconisé, des protections complètes de la vie privée comme un meilleur moyen de commencer à remédier aux préjudices causés aux jeunes (et aux personnes âgées) qui ont été ciblés par les pratiques commerciales prédatrices des plateformes.
Une série d’affaires portées devant la Cour suprême des États-Unis impliquant des efforts visant à empêcher les libraires de diffuser certains discours, ce qui a abouti à une censure large et inconstitutionnelle, montre pourquoi la KOSA est inconstitutionnelle.
L'EFF ne pense cependant pas que KOSA soit la bonne approche pour protéger les enfants en ligne. Comme nous l’avons déjà dit, nous pensons qu’en pratique, le KOSA est susceptible d’exacerber les risques de préjudice pour les enfants en ligne, car il créera des obstacles à leur capacité à accéder à des discours licites sur la dépendance, les troubles de l’alimentation, l’intimidation et d’autres sujets importants. Nous pensons également que ces restrictions étoufferont les mineurs qui tentent de trouver leur propre communauté en ligne. Nous ne pensons pas que le libellé ajouté au KOSA pour répondre à ce problème de censure résout le problème. Nous ne pensons pas non plus que concentrer la réglementation de la KOSA sur les éléments de conception des services en ligne résout les problèmes du premier amendement du projet de loi.
Notre point de vue sur les conséquences néfastes du KOSA est fondé sur les 34 années d’histoire de l’EFF, à la fois en matière d’élaboration de politiques pour Internet et d’observation de l’effet de la législation une fois adoptée. Ce n’est pas non plus la première fois que nous constatons la grande différence entre la manière dont un texte législatif est promu et ce qu’il produit dans la pratique. Récemment, nous avons constaté la même dynamique avec FOSTA/SESTA, qui a été promu par les politiciens et les parents d'enfants victimes de trafic sexuel comme moyen de prévenir de futurs préjudices. Malheureusement, même les politiciens qui l’ont initialement défendue conviennent désormais que cette loi était non seulement inefficace pour réduire le trafic sexuel en ligne, mais qu’elle créait également des dangers supplémentaires pour ces mêmes victimes ainsi que pour d’autres.
Devoir de diligence (duty of care) de KOSA
La composante principale de KOSA nécessite une plateforme ou un service en ligne susceptible d’être consulté par les jeunes pour « faire preuve d’un soin raisonnable dans la création et la mise en œuvre de toute fonctionnalité de conception afin de prévenir et d’atténuer » divers préjudices causés aux mineurs. Ces préjudices énumérés comprennent :
- troubles de santé mentale (anxiété, dépression, troubles de l'alimentation, troubles liés à la consommation de substances et comportements suicidaires)
- des modes de consommation qui indiquent ou encouragent des comportements s'apparentant à une dépendance
- violence physique, intimidation en ligne et harcèlement
Sur la base de notre compréhension du Premier Amendement et de la manière dont toutes les plateformes et services en ligne réglementés par la KOSA feront face à leur risque juridique, nous pensons que la KOSA conduira à une large censure en ligne des discours licites, y compris du contenu conçu pour aider les enfants à naviguer et à surmonter ces mêmes risques. les dommages identifiés par KOSA.
Une série d’affaires portées devant la Cour suprême des États-Unis impliquant des efforts visant à empêcher les libraires de diffuser certains discours, ce qui a abouti à une censure large et inconstitutionnelle, montre pourquoi la KOSA est inconstitutionnelle.
Dans Smith c. Californie, la Cour suprême a invalidé une ordonnance qui érigeait en crime la possession de matériel obscène par un libraire. Le tribunal a statué que même si le matériel obscène n'est pas protégé par le Premier Amendement, l'imposition d'une responsabilité par l'ordonnance sur la base de la simple présence de ce matériel avait un effet de censure plus large car un libraire « aura tendance à limiter les livres qu’il vend à ceux qu’il a inspectés ; et ainsi l’État aura imposé une restriction à la distribution de littérature protégée par la Constitution, ainsi que de littérature obscène ». Le tribunal a reconnu que « l’ordonnance tend à imposer une limitation sévère à l’accès du public au matériel protégé par la Constitution » parce qu’un diffuseur de discours d’autrui réagira en limitant l’accès à tout contenu limite qui pourrait lui causer des ennuis juridiques.
Les services en ligne ont encore moins de capacité à lire les millions (voire les milliards) de contenus proposés sur leurs services qu'un libraire ou un distributeur.
Dans l'affaire Bantam Books, Inc. c. Sullivan, la Cour suprême a annulé une tentative du gouvernement visant à limiter la distribution de documents qu'une commission d'État avait jugés répréhensibles auprès des mineurs. La commission enverrait des avis aux distributeurs de livres identifiant divers livres et magazines qu'ils jugeaient répréhensibles et enverrait des copies de leurs listes aux forces de l'ordre locales et étatiques. Les distributeurs de livres ont réagi à ces avis en arrêtant la circulation des documents identifiés par la commission. La Cour suprême a jugé que les efforts de la commission violaient le premier amendement et a reconnu une fois de plus qu’en ciblant un diffuseur de discours d’autrui, la « capacité de la commission à supprimer des publications protégées par la Constitution » était vaste.
Le devoir de diligence de KOSA crée une menace de censure de plus grande envergure que celles que la Cour suprême a annulées dans l’affaire Smith et Bantam Books. KOSA rend responsables les services en ligne qui hébergent notre discours numérique s’ils ne font pas preuve de diligence raisonnable en supprimant ou en restreignant l’accès des mineurs au contenu licite sur les sujets identifiés par KOSA. KOSA est pire que l'ordonnance de Smith parce que le premier amendement protège généralement les discours sur la toxicomanie, le suicide, les troubles de l'alimentation et les autres sujets abordés par KOSA.
Nous pensons que les services en ligne réagiront à la nouvelle responsabilité de KOSA de la même manière que la librairie de Smith et le distributeur de livres de Bantam Books : ils limiteront l'accès des mineurs ou supprimeront simplement tout discours susceptible d'aborder les sujets identifiés par KOSA, même lorsqu'une grande partie de ce discours est protégée par le premier amendement. Pire encore, les services en ligne ont encore moins de capacité à lire les millions (voire les milliards) de contenus proposés sur leurs services qu'un libraire ou un distributeur qui a dû réviser des centaines ou des milliers de livres. Pour s’y conformer, nous nous attendons à ce que les plateformes déploient des outils brutaux, soit en bloquant des parties entières de leur site pour empêcher les mineurs d’y accéder (plus d’informations à ce sujet ci-dessous), soit en déployant des filtres automatisés qui surcensureront les discours, y compris les discours qui peuvent être bénéfique pour les mineurs cherchant de l’aide en cas de dépendance ou d’autres problèmes identifiés par KOSA. (Indépendamment de leurs affirmations, il n'est pas possible pour un service d'identifier avec précision le contenu décrit par KOSA avec des outils automatisés.)
Mais comme la Cour suprême l’a statué dans l’affaire Smith et Bantam Books, le premier amendement interdit au Congrès d’adopter une loi qui entraîne une censure aussi large, précisément parce qu’elle limite la diffusion et l’accès à la parole légale.
De plus, le fait que le KOSA cible certains contenus légaux – par exemple les discours concernant le harcèlement – signifie que le projet de loi crée des restrictions basées sur le contenu qui sont présumées inconstitutionnelles. Il incombe au gouvernement de démontrer que les restrictions de contenu imposées par la KOSA servent un intérêt gouvernemental impérieux, sont étroitement adaptées à cet intérêt et constituent le moyen le moins restrictif d’expression pour promouvoir cet intérêt. KOSA ne peut pas satisfaire à cette norme exigeante.
Le fait que le KOSA cible certains contenus légaux – par exemple les discours concernant le harcèlement – signifie que le projet de loi crée des restrictions basées sur le contenu qui sont présumées inconstitutionnelles.
L'EFF convient que le gouvernement a un intérêt impérieux à protéger les enfants contre les préjudices en ligne. Mais l’exigence générale du KOSA selon laquelle les plateformes et les services sont tenus responsables de la diffusion de discours sur des sujets particuliers à des mineurs n’est pas étroitement adaptée à cet intérêt. Comme indiqué ci-dessus, la censure généralisée qui en résultera limitera effectivement l’accès à un large éventail de discours licites sur des sujets tels que la toxicomanie, le harcèlement et les troubles de l’alimentation. Le fait que KOSA balaie autant de discours montre qu’il est également loin d’être l’alternative la moins restrictive pour la parole.
Pourquoi la règle de construction ne résout pas le problème de la censure
En réponse aux préoccupations de censure concernant le devoir de diligence, les auteurs de KOSA ont ajouté une règle d’interprétation stipulant que rien dans le devoir de diligence « ne doit être interprété comme exigeant une plate-forme couverte pour empêcher ou exclure : »
- des mineurs de rechercher délibérément ou indépendamment du contenu, ou
- les plateformes ou services fournissant des ressources qui préviennent ou atténuent les préjudices identifiés par KOSA, « y compris des informations fondées sur des preuves et des ressources cliniques ».
Nous comprenons que certains interprètent ce langage comme une garantie pour les services en ligne qui limite leur responsabilité si un mineur découvre des informations sur des sujets identifiés par KOSA, et par conséquent, les plateformes hébergeant du contenu visant à atténuer la dépendance, l'intimidation ou d'autres préjudices identifiés peuvent être rassurées par le fait que ils ne seront pas poursuivis en vertu du KOSA.
DITES AU CONGRÈS : OPPOSEZ-VOUS À LA LOI SUR LA SÉCURITÉ EN LIGNE DES ENFANTS
Mais l’EFF ne pense pas que la règle de construction limitera la censure de la KOSA, que ce soit d’un point de vue pratique ou constitutionnel. D’un point de vue pratique, il n’est pas clair comment un service en ligne pourra s’appuyer sur les garanties de la règle de construction étant donné la diversité du contenu qu’il est susceptible d’héberger.
Prenons par exemple un forum en ligne dans lequel les utilisateurs discutent de l'abus de drogues et d'alcool. Il est susceptible de contenir une gamme de contenus et d'opinions d'utilisateurs, dont certaines pourraient décrire la dépendance, la consommation de drogues et le traitement, y compris des opinions négatives et positives sur ces points. La règle de construction de KOSA pourrait protéger le forum de la recherche initiale par un mineur d’un contenu qui le mènerait au forum. Mais une fois que ce mineur commence à interagir avec le forum, il est susceptible de rencontrer les types de contenu proscrits par KOSA, et le service peut être tenu responsable s'il y a une réclamation ultérieure selon laquelle le mineur a été blessé. En bref, KOSA ne précise pas que la recherche initiale du forum exclut toute responsabilité si le mineur interagit avec le forum et subit un préjudice ultérieurement. On ne sait pas non plus comment un service prouverait que le mineur a trouvé le forum via une recherche.
La norme quasi impossible requise pour examiner un si grand volume de contenu, associée à la responsabilité de laisser passer tout contenu préjudiciable, est précisément le scénario que craignait la Cour suprême.
En outre, les protections de la règle de construction pour le forum, si elles fournissent uniquement des ressources concernant la prévention ou l’atténuation de l’abus de drogues et d’alcool sur la base d’informations fondées sur des preuves et de ressources cliniques, ne seront probablement pas utiles. Cette disposition suppose que le forum dispose des ressources nécessaires pour examiner tout le contenu existant sur le forum et filtrer efficacement tout contenu futur afin d'autoriser uniquement le contenu généré par les utilisateurs concernant l'atténuation ou la prévention de la toxicomanie. La règle de construction exige également que le forum possède l’expertise en la matière nécessaire pour juger quel contenu est ou n’est pas cliniquement correct et fondé sur des preuves. Et même cela suppose qu’il existe un large consensus scientifique sur tous les aspects de la toxicomanie, y compris ses causes (ce qui n’est pas le cas).
Compte tenu de cette incertitude pratique et du risque potentiel de se tromper en ce qui concerne l'accès des mineurs à ce contenu, nous pensons que le forum sur la toxicomanie réagira de la même manière que le libraire et le distributeur dans les affaires de la Cour suprême : il prendra simplement des mesures pour limiter la possibilité pour les mineurs d'accéder au contenu, une alternative beaucoup plus simple et plus sûre que de prendre des décisions d'experts au cas par cas concernant chaque élément de contenu du forum.
L’EFF ne croit pas non plus que les décisions de la Cour suprême dans les affaires Smith et Bantam Books auraient été différentes si des garanties similaires de type KOSA avaient été incorporées dans les réglementations en cause. Par exemple, même si l’ordonnance sur l’obscénité en cause dans l’affaire Smith avait fait une exception autorisant les librairies à vendre des livres scientifiques contenant des images détaillées de l’anatomie humaine, la librairie devrait quand même examiner de manière exhaustive chaque livre qu’elle vend et séparer les livres obscènes des livres scientifiques. La Cour suprême a rejeté de telles charges, les considérant comme offensantes pour le Premier Amendement : « Il serait tout à fait déraisonnable d’exiger une approche aussi proche de l’omniscience. »
La norme quasi impossible requise pour examiner un si grand volume de contenu, associée à la responsabilité de laisser passer tout contenu préjudiciable, est précisément le scénario que craignait la Cour suprême. « L'autocensure du libraire, imposée par l'État, serait une censure touchant l'ensemble du public, à peine moins virulente parce qu'elle est administrée de manière privée », a écrit le tribunal dans l'affaire Smith. « Grâce à cela, la distribution de tous les livres, qu'ils soient obscènes ou non, serait entravée. »
Ces mêmes préoccupations liées au Premier Amendement sont exponentiellement plus grandes pour les services en ligne hébergeant le discours de chacun. C’est pourquoi nous ne pensons pas que la règle d’interprétation du KOSA empêchera la censure plus large qui résulte du devoir de diligence du projet de loi.
Enfin, nous ne pensons pas que la règle d’interprétation aide le gouvernement à surmonter le fardeau d’un contrôle strict visant à démontrer que le KOSA est étroitement adapté ou restreint moins la liberté d’expression que nécessaire. Au lieu de cela, la règle d’interprétation accentue en réalité la violation par KOSA du premier amendement en privilégiant certains points de vue par rapport à d’autres. La règle de construction crée ici une préférence juridique pour les points de vue qui cherchent à atténuer les divers préjudices identifiés, et punit les points de vue neutres ou même légèrement positifs à l’égard de ces préjudices. Bien que l'EFF reconnaisse qu'un tel discours peut être horrible, le premier amendement ne permet pas au gouvernement de faire ces distinctions fondées sur des points de vue sans satisfaire à un examen minutieux. Il ne peut pas assumer ce lourd fardeau avec KOSA.
L'accent mis par KOSA sur les caractéristiques de conception ne change pas nos préoccupations concernant le premier amendement
Les partisans du KOSA soutiennent que, étant donné que le devoir de diligence et d’autres dispositions du KOSA concernent un service en ligne ou les caractéristiques de conception des plateformes, le projet de loi ne soulève aucun problème lié au premier amendement. Nous ne sommes pas d'accord.
Il est vrai que KOSA crée une responsabilité pour les services qui ne parviennent pas à « faire preuve d’un soin raisonnable dans la création et la mise en œuvre de toute fonctionnalité de conception » pour éviter les préjudices énumérés dans le projet de loi. Mais les caractéristiques elles-mêmes ne sont pas considérées comme nuisibles par le devoir de diligence de KOSA. Au contraire, la disposition lie spécifiquement les caractéristiques de conception à l’accès des mineurs aux contenus énumérés que KOSA juge nuisibles. De cette façon, les caractéristiques de conception ne sont guère plus qu’une distraction. Le devoir de diligence ne concerne pas en soi les choix de conception en général, mais uniquement les choix de conception qui ne parviennent pas à limiter l’accès des mineurs aux informations sur la dépression, les troubles de l’alimentation et les autres contenus identifiés.
Une fois de plus, la décision de la Cour suprême dans l’affaire Smith montre pourquoi il est incorrect de prétendre que la réglementation des caractéristiques de conception par la KOSA évite les préoccupations du premier amendement. Si l'ordonnance en cause dans l'affaire Smith réglementait la manière dont les librairies étaient conçues et imposait une responsabilité en fonction de l'endroit où les libraires plaçaient certains livres incriminés dans leurs magasins - par exemple, dans la vitrine - nous soupçonnons que la Cour suprême aurait reconnu, à juste titre , que la restriction de conception n'était guère plus qu'un effort indirect visant à réglementer le contenu de manière inconstitutionnelle. Il en va de même pour KOSA.
DITES AU CONGRÈS : OPPOSEZ-VOUS À LA LOI SUR LA SÉCURITÉ EN LIGNE DES ENFANTS
KOSA n’impose pas de limitation de l’âge, mais il pousse fortement les plateformes à le faire et offre peu d’autres moyens de s’y conformer
Le KOSA a été modifié en mai 2023 pour inclure un libellé destiné à apaiser les inquiétudes concernant la vérification de l'âge ; en particulier, il incluait un langage explicite selon lequel la vérification de l’âge n’est pas requise dans la section « Protection de la vie privée » du projet de loi. Le projet de loi stipule désormais qu'une plate-forme couverte n'est pas tenue de mettre en œuvre une fonctionnalité de contrôle de l'âge ou de vérification de l'âge pour se conformer au KOSA.
L'EFF reconnaît le texte du projet de loi et a clairement indiqué dans son message que rien dans la proposition n'exige explicitement que les services mettent en œuvre la vérification de l'âge. Difficile pourtant d’envisager ce changement comme autre chose qu’une esquive technique qui sera contredite dans la pratique.
KOSA engage la responsabilité de toute plateforme ou service réglementé qui présente à des mineurs certains contenus que le projet de loi juge préjudiciables à leur égard. Pour se conformer à cette nouvelle responsabilité, les options de ces plateformes et services sont limitées. Selon nous, les options consistent soit à filtrer le contenu pour les mineurs connus, soit à bloquer le contenu afin que seuls les adultes puissent y accéder. Dans les deux cas, le pivot est la plateforme qui connaît l’âge de chaque utilisateur afin de pouvoir identifier ses utilisateurs mineurs et soit filtrer le contenu qu’ils voient, soit les exclure de tout contenu qui pourrait être considéré comme nuisible en vertu de la loi.
L'EFF reconnaît le texte du projet de loi et a clairement indiqué dans son message que rien dans la proposition n'exige explicitement que les services mettent en œuvre la vérification de l'âge.
Il n’y a vraiment aucun moyen de le faire sans mettre en œuvre une vérification de l’âge. Indépendamment de ce que dit cet article du projet de loi, les plateformes n’ont aucun moyen de bloquer des catégories de contenu ou des fonctionnalités de conception pour les mineurs sans savoir que les mineurs sont des mineurs.
Nous ne pensons pas non plus que KOSA permette aux plateformes de prétendre à leur ignorance si elles prennent des mesures pour ne jamais connaître l’âge de leurs utilisateurs. Si une utilisatrice de 16 ans s’identifie à tort comme une adulte et que la plateforme n’utilise pas de vérification de son âge, elle pourrait quand même être tenue responsable car elle aurait dû « raisonnablement connaître » son âge. L’ignorance de la plateforme pourrait donc jouer contre elle plus tard, incitant de manière perverse les services à mettre en œuvre dès le départ la vérification de l’âge.
L'EFF reste préoccupé par le fait que les procureurs généraux des États appliquent le KOSA
Un autre changement apporté par les sponsors de la KOSA cette année a été de supprimer la capacité des procureurs généraux des États à faire respecter la norme du devoir de diligence de la KOSA. Nous respectons le fait que certains groupes pensent que cela répond aux préoccupations selon lesquelles certains États pourraient utiliser KOSA à mauvais escient pour cibler l’accès des mineurs à toute information que les responsables de l’État n’aiment pas, y compris les informations sur les LGBTQIA+ ou l’éducation sexuelle. Nous ne pensons pas que ce modeste changement évite ce préjudice. La KOSA laisse toujours les procureurs généraux des États appliquer d’autres dispositions, notamment une section exigeant certaines « garanties pour les mineurs ». Parmi les garanties figure l’exigence selon laquelle les plateformes « limitent les caractéristiques de conception » qui amènent les mineurs à passer plus de temps sur un service, notamment la possibilité de faire défiler le contenu, d’être informé d’autres contenus ou messages, ou de lire automatiquement du contenu.
Mais laisser un procureur général appliquer les exigences de KOSA en matière de protection de la conception pourrait être utilisé comme un proxy pour cibler les services qui hébergent du contenu que certains responsables n’aiment pas. Le procureur général ciblerait simplement le même contenu ou service qu'il défavorisait, mais au lieu de prétendre qu'il violait le devoir de diligence de KOSA, le responsable soutiendrait plutôt que le service n'a pas réussi à empêcher les fonctionnalités de conception nuisibles utilisées par les mineurs de leur État, telles que les notifications ou défilement sans fin. Nous pensons que le résultat sera le même : les États utiliseront probablement KOSA pour cibler les discours sur la santé sexuelle, l’avortement, les sujets LBGTQIA+ et diverses autres informations.
KOSA s'applique à de larges pans d'Internet, pas seulement aux grandes plateformes de médias sociaux
De nombreux sites, plateformes, applications et jeux devraient suivre les exigences de KOSA. Il s’applique à « une plateforme en ligne, un jeu vidéo en ligne, une application de messagerie ou un service de streaming vidéo qui se connecte à Internet et qui est utilisé, ou est raisonnablement susceptible d’être utilisé, par un mineur ».
Il existe quelques exceptions importantes : cela ne s’applique pas aux services qui fournissent uniquement des messages directs ou de groupe, tels que Signal, ni aux écoles, bibliothèques, organisations à but non lucratif ou aux FAI comme Comcast en général. C'est une bonne chose : certains critiques de KOSA craignent que cela s'applique à des sites Web comme Archive of Our Own (AO3), un site de fanfictions qui permet aux utilisateurs de lire et de partager leur travail, mais AO3 est une organisation à but non lucratif, donc ce ne serait pas couvert.
Mais une grande variété de services en ligne de niche à but lucratif resteraient réglementés par la KOSA. Ravelry, par exemple, est une plateforme en ligne axée sur les tricoteurs, mais c'est une entreprise.
Et la question reste ouverte de savoir si les commentaires et les parties communautaires des principaux sites Web d'information et de sport grand public sont soumis au KOSA. Le projet de loi exempte les sites Web d’information et de sport, avec la grande réserve qu’ils ne le sont que tant qu’ils ne sont « pas autrement une plateforme en ligne ». KOSA définit « plateforme en ligne » comme « tout site Web public, service en ligne, application en ligne ou application mobile qui fournit principalement un forum communautaire pour le contenu généré par les utilisateurs ». On peut facilement soutenir que les sections de commentaires et de forum du New York Times ou d’ESPN sont principalement conçues pour accueillir du contenu généré par les utilisateurs. KOSA s'appliquerait-il uniquement à ces espaces interactifs ou l'exception à l'exception signifie-t-elle que l'ensemble des sites sont soumis à la loi ? Le langage du projet de loi n'est pas clair.
Tous les critiques de KOSA n’ont pas non plus raison
Tout comme nous ne sommes pas d’accord avec nombre de ses partisans sur les résultats probables du KOSA, nous ne sommes pas non plus d’accord avec toutes les critiques concernant les conséquences du KOSA. Cela n’est pas surprenant : la loi est large et l’un des principaux reproches est qu’on ne sait toujours pas comment son langage vague serait interprété. Abordons donc quelques-unes des idées fausses les plus courantes concernant le projet de loi.
Les grands réseaux sociaux ne bloquent peut-être pas entièrement les jeunes, mais des services plus petits pourraient le faire
Certaines personnes craignent que KOSA n’empêche les mineurs d’utiliser les médias sociaux. Nous pensons qu’un scénario plus probable serait que les principales plateformes proposent des expériences différentes à différents groupes d’âge.
Ils le font déjà d’une certaine manière : Meta place actuellement les adolescents dans le paramètre de contrôle de contenu le plus restrictif sur Instagram et Facebook. La société a spécifiquement mis à jour ces paramètres pour de nombreuses catégories incluses dans KOSA, notamment le contenu sur le suicide, l'automutilation et les troubles de l'alimentation. Leur mise à jour décrit précisément ce que nous craignons que KOSA exige par la loi : « Bien que nous autorisons les gens à partager du contenu discutant de leurs propres luttes contre le suicide, l'automutilation et les troubles de l'alimentation, notre politique est de ne pas recommander ce contenu et nous nous sommes concentrés sur les moyens de le faire. pour le rendre plus difficile à trouver. TikTok a également bloqué certaines vidéos pour les utilisateurs de moins de 18 ans. Pour être clair, ce filtrage de contenu résultant de KOSA sera nuisible et violerait le premier amendement.
Même si les grandes plateformes réagiront probablement de cette façon, de nombreuses petites plateformes ne seront pas capables de ce type de filtrage de contenu. Ils pourraient très bien décider que bloquer complètement les jeunes est le moyen le plus simple de se protéger de toute responsabilité. Nous ne pouvons pas savoir comment chaque plate-forme réagira si KOSA est adoptée, mais les petites plates-formes qui n'utilisent pas déjà des outils automatisés complexes de modération de contenu trouveront probablement financièrement difficile de mettre en œuvre à la fois des outils de vérification de l'âge et des outils de modération de contenu.
KOSA ne rendra pas nécessairement votre vrai nom public par défaut
Une crainte récurrente partagée par les critiques du KOSA est de ne plus pouvoir utiliser les plateformes de manière anonyme. Nous pensons que cela est vrai, mais il y a quelques nuances. Personne ne devrait avoir à remettre son permis de conduire – ou, pire encore, à fournir des informations biométriques – simplement pour accéder à des propos licites sur des sites Web. Mais rien dans KOSA n’exigerait que les plateformes en ligne associent publiquement votre vrai nom à votre nom d’utilisateur.
Pourtant, une fois qu’une personne partage des informations pour vérifier son âge, elle n’a aucun moyen d’être certain que les données qu’elle transmet ne seront pas conservées et utilisées par le site Web, ni partagées ni même vendues. Comme nous l'avons dit, KOSA n'exige techniquement pas de vérification de l'âge, mais nous pensons que c'est le résultat le plus probable. Les utilisateurs seront toujours obligés de croire que le site Web qu’ils visitent, ou son service de vérification tiers, n’utilisera pas à mauvais escient leurs données privées, notamment leur nom, leur âge ou leurs informations biométriques. Compte tenu des nombreuses erreurs de confidentialité des données que nous avons constatées dans le passé de la part d’entreprises comme Meta et de l’inquiétude générale concernant la confidentialité des données que le Congrès semble partager avec le grand public (et avec l’EFF), nous pensons que ce résultat est extrêmement dangereux. En termes simples : partager vos informations privées avec une entreprise ne les rend pas nécessairement publiques, mais cela les rend beaucoup plus susceptibles de devenir publiques que si vous ne les aviez pas partagées au départ.
Nous sommes d’accord avec nos partisans : le gouvernement devrait étudier les effets des médias sociaux sur les mineurs
Nous savons que les tensions sont fortes ; c’est un sujet incroyablement important et émouvant. L'EFF n'a pas toutes les bonnes réponses quant à la manière de lutter contre les manières dont les jeunes peuvent être lésés en ligne. C’est pourquoi nous sommes d’accord avec les partisans de KOSA selon lesquels le gouvernement devrait mener des recherches beaucoup plus approfondies sur ces questions. Nous pensons qu’une enquête approfondie sur les faits constitue la première étape pour identifier les problèmes et les solutions législatives. Une disposition du KOSA exige que l'Académie nationale des sciences effectue des recherches sur ces questions et publie des rapports au public. Mais KOSA fait reculer ce processus. Il crée des solutions aux préoccupations générales concernant les préjudices causés aux jeunes sans d’abord faire le travail nécessaire pour montrer que les dispositions du projet de loi répondent à ces problèmes. Comme nous l’avons dit à plusieurs reprises, nous ne pensons pas que KOSA s’attaquera aux préjudices causés aux jeunes en ligne. Nous pensons que cela va les exacerber.
Même si votre position sur KOSA est différente de la nôtre, nous espérons que nous travaillons tous vers le même objectif : un Internet qui soutient la liberté, la justice et l’innovation pour tous les peuples du monde. Nous ne pensons pas que KOSA nous y mènera, mais les attaques ad hominem non plus. À cette fin, nous attendons avec impatience des analyses plus détaillées du projet de loi de la part de ses partisans et un engagement continu et réfléchi de la part de toute personne intéressée à travailler sur cette question cruciale.
DITES AU CONGRÈS : OPPOSEZ-VOUS À LA LOI SUR LA SÉCURITÉ EN LIGNE DES ENFANTS