¿Qué hay detrás de la censura de Twitter a Donald Trump?

Nota de la editora: decidí dejar la gramática de Valentin sin corregir para que no perdiera su esencia.

El 2021 empezó como una película de atracos: un concentrado de acción en los primeros segundos, muy divertido pero no se entiende nada de lo que está pasando. La primera escena terminó con un momento que declara oficialmente el paso a otro año: Twitter ha suspendido la cuenta de Trump.

No es tampoco la caída del muro de Berlín, pero podría ser un momento histórico. ¿Queremos que Twitter censure? O al revés, ¿dejar todo a su libertad? ¿Cuál sería el rol de las Big-Tech en la protección de la democracia y de los derechos humanos?

Como los restaurantes fancy que te ofrecen wine pairing, voy a recomendar una canción mientras hablamos del tema 🍷👌. Dado que vamos a hablar de política, derechos, violencia, Internet y libertad de expresión; el tambor rodante y las palabras gritadas the sky lights up once again de Goat nos acompañarán perfectamente en este contexto casi-apocaliptico.

Y como disclaimer, también la música te servirá como guía de mi broken frañol 🤘🏻 (frances-español, soy belga).

Saquen el popcorn, el whiskey, el viceroy and Let it burn:

¿Qué pasó?

Youtube y Facebook se unieron a Twitter y suspendieron las cuentas de Trump por su llamado a la violencia en redes sociales.

Un par de días después, los medios tiraron headlines como: "Angela Merkel reaccionó: esta censura de los tech giants puede ser problemática". Siguieron en la critica Boris Johnson, Andrés Manuel López Obrador (presidente Mexicano) y Alexey Navalny (figura de la oposición rusa y crítica del Kremlin).

Las Big-techs, el contenido y la libertad d'expression

Para entender la reacción de Merkel, necesitamos un poco de contexto.

En Estados Unidos, existe una ley que regula el contenido que generan los usuarios de internet. Nació en 1996 y se llama: "section 230 of the Communications Decency Act". Nació hace un cuarto de siglo.

Viajemos a aquella época, en 1996: se lanza el DVD en Japón, Motorola introduce el primer flip-phone, Duke Nukem 3D sale al público y yo estaba aprendiendo a escribir mi nombre gracias a mi chaleco:

Pero más importante, en 1996, el sitio web de Lego tenía esta pinta 👇

[hipster designer's breathing intensifies]

De manera bastante visionaria, esta ley iba a organizar el rol de gestión de las plataformas digitales sobre el contenido de los usuarios, anticipándose un par de años la explosión de la web 2.0, la web as a plataform donde los usuarios son los que generan el contenido.

Ahora, algo me dice que la ley fue escrita pensando en el objetivo de regular páginas como la de Lego y su “Surfer Club”. No creo que se les haya ocurrido que la ley serviría para evaluar si hay que suspender la cuenta del presidente del país porque está llamando a un posible golpe de estado.

Ojo que no tengo dudas que el Surfer Club tenía su debates intensos también.

¿Qué dice esta ley? Es muy simple y corta y voy a poner aquí su esencia:

  • Regla 1: las plataformas no pueden ser consideradas como autor o editor del contenido publicado por los usuarios.
  • Regla 2: las plataformas tienen la inmunidad de tomar libremente medidas para restringir —"de buena fe"—contenido obsceno, excesivamente violento y  otros no tanto, aunque dicho material esté o no protegido constitucionalmente.
Ver el texto de ley aquí.

La regla número 2 es muy impresionante: inmunidad para las plataformas. Pueden hacer lo que quieran y ningún juez puede decir lo contrario. Es como el escudo divino del paladín en World of Warcraft.

Big-techs be like:

Section 230 more like section 420 duuude

Y con esto, los demócratas amenazan ahora con modificar la sección 230 si las redes sociales no regulan más estrictamente el contenido. Los republicanos amenazan también de cambiar esta regla, convencidos de que existe un sesgo político en la moderación del contenido.

Tanto dentro como fuera del país aumenta la presión por cambiar la sección 230 y establecer un régimen de control más sutil.

Ok, hablemos de lo sutil 🌹 ¿Cómo podríamos mejorar esto (según yo)?

¿Por qué moderar?

Primera pregunta: ¿por qué moderar?

Los Estados Unidos tienen una filosofía particularmente extrema del first amendment. En Europa, tenemos una filosofía más atenuada. En el derecho humano europeo existe una noción que podríamos simplificar a "no libertad de expresión por los enemigos de los derechos humanos". Viene del trauma del nazismo y de la Segunda Guerra Mundial (la Corte Europea de Derechos Humanos nació del Consejo de Europa constituido en 1949).

De alguna manera, ya vivimos lo que puede pasar cuando gana la retórica violenta y xenofobia.

La Corte Europea resume en una decisión histórica su posición (que traté de traducir del francés)

"(...) La tolerancia y respeto por la igual dignidad de todos los seres humanos es la base de una sociedad democrática y pluralista. En consecuencia, en principio puede considerarse necesario, en las sociedades democráticas, sancionar, o incluso prevenir, todas las formas de expresión que propaguen, inciten, promuevan o justifiquen el odio basado en la intolerancia (...), si se asegura que las “formalidades”, “condiciones”, “restricciones” o “sanciones” impuestas son proporcionadas al fin legítimo perseguido. ”(Erbakan c. Turquía, sentencia de 6 de julio de 2006, § 56).

En simple: para vivir en democracia, necesitamos sancionar y prevenir algunas formas de expresión, pero con garantías, condiciones y proporcionalidad.

Además, en otra decisión, la Corte aplicó esto también a los portales de noticias de Internet con comentarios generados por los usuarios.

Partamos entonces con esta filosofía y tratemos de ver cómo aplicarla al caso de los Big-techs. En particular, veamos qué podrían ser las "garantías, condiciones y proporcionalidad".

(Recuerden estas 3 palabras claves: garantías, condiciones y proporcionalidad)

(el abogado George Hautecourt en los aristogatos es lo maximo <3)

Dividí el tema en dos gran puntos.

PUNTO UNO: "Si nadie protege tu derecho, no tienes derecho wn"

Sin duda existe una delegación del control del contenido (y por lo tanto una posible restricción a la libertad de expresión) a las empresas tech. Y además en EE.UU. está la inmunidad de censura, que mencionamos arriba, cuando se hace ese control.

¿Por qué existe esa inmunidad? Para evitar una avalancha de recursos que se van en tribunales. En el debate de remover o no esta "regla 2", el CEO de Twitter, Jack Dorsey, dijo:

“Enmendar la ley únicamente a través de exclusiones favorecerá inevitablemente a los grandes titulares con vastos recursos que pueden aceptar voluntariamente tales cambios, ya que dejaría solo un pequeño número de compañías de tecnología gigantes y bien financiadas"
Jack Dorsey, CEO de Twitter

Esto significa que si sacan la inmunidad, únicamente las Big-techs van a tener los recursos y los abogados para la avalancha de demandas.

Ok, buen punto. Mataría a las empresas chicas.


Si imaginamos un foro pequeño de Internet, es normal que pueden hacer moderación sin miedo y con inmunidad. No creo que sea un problema en una democracia que el dueño del foro saque el comentario del troll X que llama a matar al usuario Y.

Pero también entendemos la inquietud de Merkel al ver a un presidente de un país suspendido en sincronía por todas las redes sociales. Hay una diferencia, pero ¿cómo definirla? Podríamos, por ejemplo, inventar un concepto legal de "una parte sustancial del espacio dedicado a la expresión pública", porque al final eso es lo que importa en el ejercicio de tu libertad de expresión: ser escuchado, leído, comentado, compartido.

Es este contexto de libertad de expresión es lo que queremos proteger.

Concretamente: ya sea Donald Trump o Juan del Campo, cuando una plataforma de tal tamaño que representa una parte sustancial del espacio de debate público dice censurar a una persona, esta persona debe poder acudir ante un juez para contestar la decisión.

¿Por qué? Hold my beer. Porque una inmunidad absoluta, sin condiciones, que retira la censura del control de los cortes y tribunales es desproporcionada. Esta acción de callar no permitiría la garantía efectiva de protecciones de los derechos humanos que se necesita en una sociedad democrática.


¿Y el pequeño foro? Sigue con inmunidad, porque no representa una parte sustancial del espacio dedicado a la expresión pública.

Así, respondemos a la inquietud del CEO de Twitter y dejando espacio a los pequeños jugadores.

PUNTO DOS: Code is law, se abre la caja negra

En noviembre del año pasado, en una de las audiencia de las Big-tech en el Senado se dijo otra frase del mismo Jack Dorsey que encuentro muy relevante.

Contexto: estaban hablando sobre el motivo por el cual las redes sociales etiquetan o eliminan publicaciones:

"Es más o menos opaco para el público y ahí es donde creo que tenemos una brecha (...) Tenemos transparencia en torno a nuestras políticas. No tenemos transparencia en cuanto a cómo operamos la moderación de contenido. La razón detrás de esto. El razonamiento"

Eso lo encuentro fundamental.

Que existan "términos y condiciones" de la plataforma. Pero para citar la famosa frase del abogado y académico Lawrence Lessig: "El código es ley" y los términos y condiciones son únicamente parte de la norma que se aplica. El algoritmo que identifica y borra un contenido tiene su rol también.

Pragmáticamente, ¿el algoritmo sería parte de la norma? ¿O sería un "juez digital"?

Una mezcla de los dos: el algoritmo es la norma que determina la aplicación casuística de los "términos y condiciones". De alguna forma, es también la motivación de la decisión (la respuesta a "por qué borramos este tweet" , y que nos permitiría ver si borrarlo fue legítimo, proporcional, etc.). Entonces, tener el algoritmo escondido, aunque sea el corazón de la decisión de censura, es un gran problema.

La transparencia del algoritmo permitirá 2 cosas muy importantes:

  1. Verificar la igualdad de trato entre los casos (no se puede aplicar un trato diferente a A y B sin justificación, esto sería contrario al principio de no discriminación).
  2. Comprobar que el código del algoritmo en sí mismo cumple con la Constitución (el código podría revelar que hay un sesgo político en el control por ejemplo, si existiera).

Y este último punto es muy importante, porque dar transparencia al algoritmo permite de imaginar otro tipo de ¡garantía!

🥁

Quizás podríamos tener un mecanismo institucional parecido a lo que los abogados llaman el litigio objetivo (porque es un litigio que ataca un objeto y no una persona). Por ejemplo, cuando un ministro publica un reglamento, se puede atacar este reglamento —el reglamento en sí mismo— ante los juzgados y tribunales (generalmente un tribunal constitucional o administrativo) y decir "oye este texto está en contra de la Constitución, favor borrarlo, grax".

Creo que podríamos imaginar un tribunal/organismo administrativo específico con jueces y/o expertos que cachan de programación y que pueden recibir demandas del mismo tipo: "oye este algoritmo discrimina sistemáticamente a los demócratas/republicanos/gays/negros y está en contra de la Constitución, favor borrarlo, grax".

En definitiva, controlar el algoritmo para no tener que interponer recursos por cada una de sus aplicaciones a un caso concreto. Y eso ayudaría a reducir la avalancha de demandas.

Oye ¿y qué pasa con la inteligencia artificial? La importancia del principio de WFYT

¿Qué pasa si una empresa usa inteligencia artificial para tomar una decisión de censura? La caja negra aquí es inducida por la tecnología, porque hay veces que no sabemos porque la inteligencia artificial elige A o B.

En este caso, yo creo que deberíamos aplicar el viejo principio fundamental del derecho y decirle a la empresa WFYT ("Well, Fuck You Then").

Si usan inteligencia artificial para tener una lista de potenciales problemas que después un algoritmo "abierto" analizará: ningún problema.

Pero si ni siquiera una plataforma gigante puede explicar los factores que justifican una decisión concreta de censura, no pueden encontrar un motivo para hacerlo, entonces ellos no están mostrando ninguna garantía, condición y proporcionalidad. WFYT!

De lo contrario, la decisión de censura, en términos de factores de motivación, tendría la sutileza del ¡porque soy tu padre!, que fue la respuesta que te dieron cuando preguntaste "¿por qué me castigaste?” a los 11 años.

Excepto que Twitter no es tu padre.

Si te gustó este artículo y tienes una teoría, comentario o algo para complementar estos pensamientos, escríbenos una Carta al Editor a cartas@fintual.com. Esta es una nueva sección del Fintualist en la que publicaremos las cartas destacadas de nuestros lectores.