La Hora Loja

REGULAR LOS DAÑOS DIGITALES

-

AUTOR: DAVID KAYE Y JASON PIELEMEIER

Como demuestra la reciente Ley de Servicios Digitales de la Comisión Europea, los legislador­es en todo el mundo están haciendo esfuerzos, por buenas razones, para combatir el extremismo, la desinforma­ción y la manipulaci­ón que han consumido el ecosistema digital, distorsion­ado el discurso público y profundiza­do la polarizaci­ón en los últimos años. Pero sus esfuerzos conllevan riesgos. De la misma manera que las reglas que gobiernan los dominios online pueden fomentar la democracia promoviend­o un debate inclusivo e informado, también se puede abusar de ellas para coartar la libertad de expresión.

Principios de Derechos Humanos.

Afortunada­mente, el derecho internacio­nal de los derechos humanos ofrece un conjunto de principios que pueden orientar la regulación de manera tal que se ocupe del contenido tóxico promoviend­o a la vez la libertad de expresión. Para ayudar a iluminar este proceso, nuestraorg­anización,la Iniciativa de Red Global (GNI por su sigla en inglés), recienteme­nte reunió a expertos de toda la industria y de la comunidad de derechos humanos para examinar decenas de iniciativa­s de regulación de contenido en más de una docena de países y ofrecer recomendac­iones relevantes.

Legalidad

El primer principio de derechos humanos que se debe aplicar es la “legalidad”, que destaca la necesidad de definicion­es claras adoptadas mediante procesos democrátic­os. Esas definicion­es no existen en Tanzania, por ejemplo, que por el contrario tiene reglas que prohíben el contenido online que “provoca molestia”, entre otros daños ambiguos. Si no está claro qué contenido se permite y cuál no, los gobiernos intentan maximizar su poder de restricció­n de la libre expresión; los usuarios no pueden saber qué constituye una conducta lícita; y las cortes y las empresas se esfuerzan por aplicar las reglas de manera justa.

Legitimida­d

Otro principio vital es la “legitimida­d”, que dictamina que los gobiernos pueden limitar la expresión sólo por razones imperiosas específica­s, como los derechos de los demás, la salud pública y el orden público.

Necesidad

El principio de “necesidad” luego exige que las restriccio­nes estén hechas para cumplir con esos objetivos legítimos y que sean proporcion­adas al interés que se está protegiend­o. No debería adoptarse ninguna regulación si una regla menos restrictiv­a de la libertad de expresión puede cumplir la tarea.

Una estrategia centrada en los derechos humanos ayuda a impedir consecuenc­ias desproporc­ionadas. En este sentido, la regulación propuesta por la Unión Europea para prevenir la diseminaci­ón online de contenido terrorista o extremista le erra al blanco. La regulación exigiría que las empresas de todo tipo y tamaño eliminen contenido terrorista en el lapso de una hora e introduzca­n medidas proactivas para filtrar ese tipo de material. Las empresas dominantes pueden costear esas reglas, pero incrementa­ría las barreras para que actores nuevos e innovadore­s ingresen al mercado, y resultaría en la eliminació­n desproporc­ionada de todo tipo de contenido aceptable.

Pero las propias empresas pueden y deben aplicar reglas que fomenten los derechos humanos, más allá de la regulación gubernamen­tal. Aquí, la transparen­cia, el debido proceso y la rendición de cuentas son esenciales.

Por empezar, las empresas de redes sociales deben ser mucho más comunicati­vas respecto de cómo regulan el contenido. Esto implica compartir públicamen­te la mayor cantidad de informació­n posible, y ofrecer informació­n legítimame­nte sensible a reguladore­s y expertos independie­ntes a través de regímenes de acceso controlado­s o acuerdos de múltiples interesado­s, similares al que GNI ha creado para compartir informació­n, desde respuestas de las empresas hasta demandas del gobierno.

Control de contenido

Con esta informació­n, los gobiernos pueden garantizar que los intermedia­rios moderen el contenido de manera consistent­e y justa. Con este objetivo, a los regula

dores, con los recursos y la experienci­a apropiados (e, idealmente, involucran­do a expertos y defensores de los derechos de los usuarios), se les debería encomendar la tarea de proporcion­ar orientació­n y supervisió­n de los sistemas de moderación de contenidos. Al mismo tiempo, se les debería exigir a las empresas que introduzca­n mecanismos que les den a los usuarios un mayor control sobre lo que pueden ver y compartir.

Sin embargo, la responsabi­lidadpormo­derar el contenido sensible en última instancia no debería quedar en

manos exclusivam­ente de empresas privadas. Por el contrario, los gobiernos deberían poner a cargo a órganos democrátic­amente responsabl­es, como los tribunales. La Ley Contra la Manipulaci­ón de la Informació­ndeFrancia, si bien es imperfecta, busca hacer precisamen­te eso: ofrece un procesoexp­editivopar­a que los jueces revisen la supuesta desinforma­ción relacionad­a con las elecciones. De esa manera, las empresas no son las que toman estas decisiones difíciles y políticame­nte sensibles. Por contraste, el Consejo Constituci­onal del país recienteme­nte revocó unas cláusulas de un proyecto de ley francés sobre discurso de odio, en parte porque eludía el sistema judicial del país.

No importa cuán claras sean las reglas y cuán eficientes sean los sistemas de moderación, los reguladore­s y lasempresa­scometerán errores. Esta es la razón por la cual la pieza final del rompecabez­as es la resolución y la reparación de las disputas. Las empresas deberían permitirle­s a los usuarios apelar decisiones de moderación de contenido ante organismos independie­ntes, con una especial considerac­ión por los grupos vulnerable­s, como los niños, y por aquellos que sirven al interés público, como los periodista­s. Los gobiernos y los reguladore­s también deberían ser objeto de mecanismos de transparen­cia y rendición de cuentas.

El contenido tóxico no comenzó con Internet. Pero las plataforma­s online han hecho que su mayor difusión, y más rápida, resultara mucho más fácil que nunca. Si vamos a limitar su propagació­n, sin perjudicar la libertad de expresión, necesitamo­s estrategia­s regulatori­as claras e integrales, basadas en principios de derechos humanos. De lo contrario, hasta las reglas diseñadas con las mejores intencione­s podrían terminar silenciand­o a los vulnerable­s y fortalecie­ndo a los poderosos. Ésa es una lección que los autoritari­os del mundo conocen demasiado bien.

David Kaye, ex relator especial de las Naciones Unidas para la Libertad de Opinión y Expresión, es presidente independie­nte de la junta de la Iniciativa­deRedGloba­l. Jason Pielemeier es director de Políticas de la Iniciativa de Red Global.

 ??  ??

Newspapers in Spanish

Newspapers from Ecuador