2022 ha sido un año importante para los derechos digitales en la Unión Europea, ya que el 16 de noviembre entró en vigor la histórica Ley de Servicios Digitales (DSL), que pretende fomentar un más seguro y competitivo espacio digital.
El DSA revisa la principal normativa de la UE sobre plataformas, la Directiva sobre comercio electrónico, y pretende ser una herramienta importante para hacer de Internet un lugar más justo, estableciendo nuevas responsabilidades legales para las plataformas en línea y educando a los usuarios sobre por qué se retiran contenidos y qué pueden hacer al respecto.También se limita el poder de las grandes tecnológicas, ya que la DSA obliga a las "plataformas en línea de gran tamaño (VLOP, por sus siglas en inglés)" a cumplir obligaciones de gran alcance y hacer frente de forma responsable a los riesgos sistémicos y los abusos en su plataforma. Estos riesgos abarcan diversos aspectos, como la difusión de contenidos ilegales, la desinformación y el impacto negativo en los derechos fundamentales. Las VLOP también se enfrentan a la supervisión a través de auditorías independientes, que evaluarán si las plataformas respetan las obligaciones de la DSA.
Mientras que las obligaciones impuestas a los servicios intermediarios dependen del papel, el tamaño y el impacto del servicio en el ecosistema en línea, la DSA introduce protecciones integrales sobre los derechos de los usuarios a la privacidad al prohibir a las plataformas realizar publicidad dirigida basada en información sensible del usuario, como el origen étnico o la orientación sexual. En términos más generales, la DSA aumenta la transparencia sobre los anuncios que los usuarios ven en sus feeds, ya que las plataformas deben colocar una etiqueta clara en cada anuncio, con información sobre el comprador del anuncio y otros detalles. A pesar de estar en sus inicios, esta disposición desde ya, produce tensión, puesto que empresas como Twitter -cuya principal fuente de ingresos se obtiene a través de los ingresos publicitarios- han confirmado su intención de intensificar el uso de anuncios personalizados en la plataforma, en potencial contradicción a la DSA.
El énfasis de la DSA en una mayor transparencia y los derechos de los usuarios también incluye requisitos para que las plataformas expliquen sus algoritmos de selección de contenidos con más detalle y en un lenguaje fácil de usar. Con ello se pretende garantizar que los usuarios puedan comprender mejor cómo se toman las decisiones sobre contenidos, mismas que no deben ser arbitrarias - y cómo pueden solicitar su restitución en caso de que las plataformas cometan errores. La DSA también exige a las plataformas que den a los usuarios la opción de elegir un algoritmo de selección de contenidos que no se base en perfiles.
En general, y este es el enfoque correcto para la regulación de la gobernanza de las plataformas, la DSA no dice a las plataformas de medios sociales qué discurso pueden y no pueden publicar. En cambio, se centra mucho en que los procesos y la moderación de contenidos sean claros para los usuarios, y exige a las plataformas que se tomen en serio la seguridad y la protección de los derechos fundamentales.
Además, la DSA preserva en gran medida el sistema de la UE de responsabilidad limitada para los intermediarios en línea, lo que significa que las plataformas no pueden ser consideradas responsables de los contenidos de los usuarios siempre que retiren contenidos que realmente "saben" que son ilegales. Después de extensas deliberaciones, el DSA rechazó los plazos de retirada que habrían suprimido el discurso legal, valioso y benigno, y la EFF ayudó a garantizar que el lenguaje final se mantuviera alejado de las obligaciones de filtro intrusivas. Esto reforzará los derechos de los usuarios en línea, ya que sin la responsabilidad de los intermediarios, los usuarios quedan sujetos a elaboraciones de perfiles, del todo nocivas., represión de la libertad de expresión y a un sistema que a menudo conduce a un perniciosa cultura de autocensura. Sin embargo, las nuevas normas de diligencia debida podrían seguir animando a las plataformas a retirar contenidos en exceso, mientras que otros requisitos pretenden moderar las acciones de las plataformas contra la expresión de los usuarios. Estaremos atentos para ver cómo se desarrolla esto en la práctica.
Muchos creen que la nueva ASD podría convertirse en un patrón oro para otros reguladores del mundo. Pero la DSA no es todo buenas noticias y algunos aspectos pueden encajar bien en Europa pero no en otras partes del mundo. Una omisión especialmente preocupante de la DSA es la protección expresa de la expresión anónima de los usuarios. En su lugar, el DSA proporciona un procedimiento acelerado para que las autoridades policiales asuman el papel de "marcadores de confianza" y descubran datos sobre los hablantes anónimos y retiren los contenidos presuntamente ilegales, que las plataformas pasan a estar obligadas a retirar rápidamente. Los problemas relacionados con la participación de los gobiernos en la moderación de contenidos están muy extendidos y, aunque la figura de los marcadores de confianza no es nueva, el sistema de la DSA podría tener un impacto negativo significativo en los derechos de los usuarios, en particular en los de privacidad y libertad de expresión.
Desde que la Comisión Europea presentó por primera vez la DSA en diciembre de 2020, la EFF ha luchado por la protección en cuatro áreas clave: responsabilidad de las plataformas, mandatos de interoperabilidad, justicia procesal y control de los usuarios. Y nuestro mensaje a la UE ha sido claro: Preservar lo que funciona. Arreglar lo que no funciona. Y devolver el control a los usuarios.
Sin embargo, a pesar de la aprobación definitiva del DSA, nuestro trabajo no ha hecho más que empezar. El éxito de la promesa de la DSA de crear un entorno en línea que proteja al usuario dependerá de cómo interpreten las plataformas de medios sociales, sus nuevas obligaciones y de cómo hagan cumplir la normativa, las autoridades de la Unión Europea. El respeto de la Carta de los Derechos Fundamentales de la UE y la inclusión de los grupos de derechos digitales y las comunidades marginadas en el proceso de aplicación son cruciales para garantizar que la DSA se convierta en un modelo positivo de legislación sobre derechos digitales, tanto dentro como fuera de las fronteras de la UE. Y como el lenguaje racista prolifera en plataformas como Twitter, y la libertad de expresión eliminada arbitrariamente a pedido de las fuerzas del orden en otros servicios, los procesos de gobernanza de contenidos centrados en el usuario y transparentes son más pertinentes que nunca.