La Ley de Servicios Digitales Debería Preocuparle Mucho
El artículo 11 de la Carta de los Derechos Fundamentales de la UE, que reproduce una parte del artículo 10 del Convenio Europeo de Derechos Humanos, protege el derecho de los ciudadanos europeos a «formarse opiniones y a recibir y difundir informaciones e ideas sin que pueda haber injerencia de autoridades públicas y sin consideración de fronteras», y afirma que «se respetarán la libertad y el pluralismo de los medios de comunicación».
Lamentablemente, el destino de la libertad de expresión en Europa pende ahora de un hilo, ya que la Unión Europea acaba de promulgar una ley que faculta a la Comisión para restringir significativamente la capacidad de los ciudadanos de utilizar las plataformas digitales para participar en un discurso democrático sólido y sincero.
En virtud de la recién promulgada Ley de Servicios Digitales, la Comisión Europea puede ejercer presiones significativas sobre las plataformas digitales para frenar la «incitación al odio», la «desinformación» y las amenazas al «discurso cívico», todas ellas categorías notoriamente vagas y escurridizas, categorías que históricamente han sido cooptadas para reforzar la narrativa de la clase dominante. Al otorgar a la Comisión Europea amplios poderes discrecionales para supervisar las políticas de moderación de contenidos de las grandes tecnológicas, esta pieza legislativa mantiene la libertad de expresión como rehén de las inclinaciones ideológicas de funcionarios europeos no electos y sus ejércitos de «abanderados de confianza».
Propósito de la Ley de Servicios Digitales
El propósito declarado de la Ley de Servicios Digitales (DSA) que acaba de entrar en vigor en Europa es garantizar una mayor «armonización» de las condiciones que afectan a la prestación de servicios digitales «intermediarios», en particular las plataformas en línea que alojan contenidos compartidos por sus clientes. La Ley abarca un desconcertante abanico de cuestiones, desde la protección del consumidor y la regulación de los algoritmos publicitarios hasta la pornografía infantil y la moderación de contenidos. Entre otros fines que aparecen en la redacción de la Ley, encontramos el fomento de «un entorno en línea seguro, predecible y digno de confianza», la protección de la libertad de expresión de los ciudadanos y la armonización de la normativa de la UE que afecta a las plataformas digitales en línea, que actualmente depende de las leyes de cada Estado miembro.
La DSA No Es Tan Inocente Como Parece
A primera vista, la Ley de Servicios Digitales puede parecer bastante inocua. Impone requisitos bastante formales a las «plataformas en línea muy grandes», como Google, Twitter/X, Facebook y TikTok, para que dispongan de procedimientos de recurso claros y sean transparentes en su regulación de los contenidos nocivos e ilegales. Por ejemplo, la sección 45 de la Ley se lee como un requisito bastante ligero de que los proveedores de servicios digitales en línea («servicios de intermediación») mantengan informados a los clientes sobre los términos y condiciones y las políticas de la empresa:
Los proveedores de servicios de intermediación deben indicar claramente y mantener actualizada en sus términos y condiciones la información sobre los motivos por los que pueden restringir la prestación de sus servicios. En particular, deben incluir información sobre todas las políticas, procedimientos, medidas y herramientas utilizadas a efectos de moderación de contenidos, incluida la toma de decisiones algorítmica y la revisión humana, así como las normas de procedimiento de su sistema interno de gestión de reclamaciones. También deben proporcionar información fácilmente accesible sobre el derecho a poner fin al uso del servicio.
Pero si uno empieza a escarbar en la Ley, muy pronto descubre que es venenosa para la libertad de expresión y que no se ajusta al espíritu del artículo 11 de la Carta de los Derechos Fundamentales de la UE, que garantiza a los ciudadanos la «libertad de opinión y de recibir y difundir informaciones e ideas sin que pueda haber injerencia de autoridades públicas y sin consideración de fronteras». A continuación, detallo algunos aspectos de la Ley que, en su conjunto, suponen una amenaza sin precedentes para la libertad de expresión en Europa:
1. La DSA (Ley de Servicios Digitales) crea entidades denominadas «alertadores de confianza» para denunciar los «contenidos ilegales» que identifiquen en las grandes plataformas en línea. La ley obliga a las plataformas en línea a responder con prontitud a las denuncias de contenidos ilegales presentadas por estos «alertadores de confianza» nombrados por los «coordinadores de servicios digitales» designados por los Estados miembros.
La ley exige a las grandes plataformas en línea que «adopten las medidas necesarias para garantizar que se traten con prioridad las notificaciones presentadas por los alertadores de confianza, que actúen dentro de su ámbito de especialización designado, a través de los mecanismos de notificación y actuación exigidos por el presente Reglamento».
2. En sentido estricto, aunque las plataformas digitales están obligadas a responder a las notificaciones de contenidos ilegales presentadas por los «avisadores de confianza», de la redacción de la Ley se desprende que las plataformas tienen discrecionalidad para decidir cómo actuar exactamente ante dichas notificaciones. Podrían, por ejemplo, no estar de acuerdo con la opinión legal de un «señalador de confianza» y decidir no retirar el contenido señalado. Sin embargo, se enfrentarán a auditorías periódicas sobre el cumplimiento de la Ley por parte de auditores que trabajan en nombre de la Comisión Europea, y estas revisiones difícilmente verán con buenos ojos un patrón de inacción ante los contenidos marcados.
3. La Ley de Servicios Digitales también exige a las «plataformas en línea muy grandes» (plataformas como Google, YouTube, Facebook y Twitter/X) que lleven a cabo evaluaciones periódicas de «mitigación de riesgos», en las que aborden los «riesgos sistémicos» asociados a sus plataformas, incluidos, entre otros, la pornografía infantil, la «violencia de género» (signifique eso lo que signifique), la «desinformación» sobre salud pública y los «efectos negativos reales o previsibles en los procesos democráticos, el discurso cívico y los procesos electorales, así como en la seguridad pública». Las plataformas tienen obligaciones de «diligencia debida» en virtud de la Ley para tomar las medidas adecuadas para gestionar estos riesgos. A diferencia de un código de buenas prácticas voluntario, la exclusión voluntaria no es una opción, y el incumplimiento de estas obligaciones de «diligencia debida» estará sujeto a fuertes sanciones.
4. Las sanciones vinculadas al incumplimiento de la Ley son notables. La Comisión, si considera que una gran plataforma en línea como X/Twitter no ha cumplido con la DSA, puede multar a dicha plataforma con hasta el 6 por ciento de su facturación global anual. Dado que el concepto de incumplimiento es difícil de cuantificar y bastante vago (¿qué se exige exactamente para cumplir las «obligaciones de diligencia debida» de la gestión del riesgo sistémico?), parece probable que las empresas que deseen evitar dolores de cabeza legales y financieros prefieran pecar de cautelosas y hacer una demostración de «cumplimiento» para evitar ser multadas.
5. Las auditorías periódicas previstas por esta ley servirán a la Comisión para presionar a las grandes plataformas en línea para que tomen medidas para «gestionar» los «riesgos» de la desinformación y las amenazas al «discurso cívico y los procesos electorales», riesgos que son notoriamente vagos y probablemente imposibles de definir de forma políticamente imparcial. La amenaza que acecha en el trasfondo de estas auditorías y sus «recomendaciones» asociadas es que la Comisión puede imponer multas multimillonarias a las plataformas en línea por incumplimiento. Debido a la idea bastante vaga de incumplimiento de las «obligaciones de diligencia debida» y a la naturaleza discrecional de las sanciones financieras amenazadas en la DSA, esta Ley creará una atmósfera de inseguridad jurídica para las plataformas en línea y para sus usuarios. Incentiva en gran medida a las plataformas en línea a vigilar el discurso de una manera que pase el examen de la Comisión de la UE, en torno a categorías vagas como «desinformación» y «discurso del odio», y esto obviamente tendrá repercusiones para los usuarios finales.
6. Según la Comisión Europea, «el discurso y los delitos motivados por el odio son ilegales según la legislación de la UE». La Framework Decisión de 2008 relativa a la lucha contra determinadas formas de expresión del racismo y la xenofobia exige la tipificación como delito de la incitación pública a la violencia o al odio por motivos de raza, color, religión, ascendencia o el origen nacional o étnico». Es importante señalar que la Comisión Europea está a favor de ampliar las categorías de incitación ilegal al odio a escala europea para incluir no sólo «la raza, el color, la religión, la ascendencia o el origen nacional o étnico», sino también nuevas categorías (presumiblemente, incluyendo cosas como la identidad de género). Así pues, la incitación ilegal al odio es un «blanco móvil» y es probable que se amplíe y adquiera una mayor carga política con el paso del tiempo. Según el propio sitio web de la Comisión Europea:
El 9 de diciembre de 2021, la Comisión Europea adoptó una Comunicación que impulsa una decisión del Consejo para ampliar la actual lista de «delitos contra la UE» del artículo 83(1) del TFUE a los delitos de odio y a la incitación al odio. Si se adopta esta decisión del Consejo, la Comisión Europea podría, en un segundo paso, proponer legislación secundaria que permita a la UE criminalizar otras formas de discurso de odio y delitos de odio, además de los motivos racistas o xenófobos.
7. El aspecto más inquietante de la DSA es el enorme poder y discrecionalidad que pone en manos de la Comisión Europea – en particular, una comisión no elegida – para supervisar el cumplimiento de la DSA y decidir cuándo las plataformas en línea incumplen sus «obligaciones de diligencia debida» para gestionar riesgos cuyo significado es notoriamente vago y manipulable, como el discurso del odio, la desinformación y el discurso anticívico. La Comisión Europea también se está otorgando a sí misma el poder de declarar una emergencia a escala europea que le permitiría exigir intervenciones adicionales por parte de las plataformas digitales para contrarrestar una amenaza pública. No habrá seguridad jurídica sobre cuándo la Comisión Europea podría declarar una «emergencia». Tampoco hay seguridad jurídica sobre cómo interpretarán la Comisión Europea y sus auditores los «riesgos sistémicos», como la desinformación y la incitación al odio, o cómo evaluarán los esfuerzos de los proveedores de servicios para mitigar tales riesgos, ya que se trata de poderes discrecionales.
8 Tampoco está claro cómo la Comisión podría llevar a cabo una auditoría de los «riesgos sistémicos» de la desinformación y los riesgos para el discurso cívico y los procesos electorales sin adoptar una visión particular de lo que es verdadero y falso, información saludable y perjudicial, adelantándose así al proceso democrático a través del cual los ciudadanos evalúan estas cuestiones por sí mismos.
9. Tampoco está claro qué controles y equilibrios se establecerán para evitar que la DSA se convierta en un arma para las causas favoritas de la Comisión de la UE, ya sea la guerra en Ucrania, el consumo de vacunas, la política climática o la «guerra contra el terror». El amplio poder para declarar una emergencia pública y exigir a las plataformas que lleven a cabo «evaluaciones» de sus políticas en respuesta a ello, combinado con el amplio poder discrecional para multar a las plataformas en línea por «incumplimiento» de «obligaciones de diligencia debida» inherentemente vagas, dan a la Comisión un gran margen de maniobra para enseñorearse de las plataformas en línea y presionarlas para que promuevan su narrativa política favorita.
10. Un aspecto especialmente taimado de esta ley es que la Comisión está ilegalizando la desinformación *por la puerta de atrás*, por así decirlo. En lugar de definir claramente lo que entienden por «desinformación» y declararla ilegal – lo que probablemente causaría un gran revuelo – imponen a las grandes plataformas en línea como X/Twitter y Facebook la obligación de adoptar medidas discrecionales contra la desinformación y mitigar los «riesgos sistémicos» en sus plataformas (que incluyen el riesgo de «desinformación sobre la salud pública»). Es de suponer que las auditorías periódicas del cumplimiento de la Ley por parte de estas empresas no verían con buenos ojos las políticas que apenas hicieran cumplir las normas sobre desinformación.
Así pues, el efecto neto de la ley sería ejercer una presión casi irresistible sobre las plataformas de medios sociales para que jueguen a «contrarrestar la desinformación» de forma que pasen el examen de los auditores de la Comisión y eviten así que se les impongan multas cuantiosas. Hay mucha incertidumbre sobre lo estrictas o laxas que serían esas auditorías, y qué tipos de incumplimiento podrían desencadenar la aplicación de sanciones económicas. Es bastante extraño que una normativa legal que pretende defender la libertad de expresión ponga el destino de ésta a merced de los juicios ampliamente discrecionales e inherentemente impredecibles de funcionarios no elegidos.
La única esperanza es que esta legislación fea, complicada y regresiva acabe ante un juez que entienda que la libertad de expresión no significa nada si se mantiene como rehén de las opiniones de la Comisión Europea sobre la preparación ante una pandemia, la guerra entre Rusia y Ucrania, o lo que cuenta como discurso «ofensivo» o «que incita al odio».
P.D. Considere este análisis como un intento preliminar de alguien no especializado en Derecho Europeo de abordar las inquietantes implicaciones de la Ley de Servicios Digitales para la libertad de expresión, basado en una primera lectura. Agradezco las correcciones y comentarios de los juristas y de quienes hayan tenido la paciencia de leer la Ley por sí mismos. Esta es la interpretación más detallada y rigurosa que he desarrollado de la LSD hasta la fecha. Incluye matices importantes que no estaban incluidos en mis interpretaciones anteriores y corrige ciertas interpretaciones erróneas – en particular, las plataformas no están legalmente obligadas a retirar todos los contenidos marcados, y las personas que marcan contenidos ilegales se denominan «marcadores de confianza», no «verificadores de hechos»).
Publicado por el autor en Substack
Siguenos @CHDEurope
Noticias | Communidad | Dona | Registrate