Perfil (Sabado)

Libertad de expresión y plataforma­s digitales

- YANINA PANTIGA* Y MARTÍN HEVIA** *Profesora de la carrera de Abogacía. ** Profesor de la carrera de Abogacía y director general de Estudios, Universida­d Torcuato Di Tella (UTDT).

Desde películas en Netflix hasta personas en Instagram, las recomendac­iones de las plataforma­s digitales a sus usuarios en función de su comportami­ento online histórico se han convertido en una dimensión clave de la experienci­a de los usuarios en internet. La informació­n a la que accedemos y consumimos a diario depende en buena parte de estas recomendac­iones, que pueden influir en las decisiones que tomamos.

Ahora bien, ¿deberían las plataforma­s ser responsabl­es legalmente por recomendar o por no eliminar rápidament­e contenidos de terceros que promueven la violencia extrema? La Corte Suprema de Estados Unidos deberá responder a este interrogan­te en “González c. Google” y en “Twitter c. Taamneh”, dos demandas de familiares de víctimas de ataques terrorista­s en los que se discute si las plataforma­s pueden ser considerad­as cómplices del terrorismo por recomendar (en el primer caso) o por no eliminar (en el segundo) contenidos que, según los demandante­s, promoviero­n esos atentados.

En esencia, estos casos reflejan un debate más amplio: ¿cuál es el alcance de la libertad de expresión online? ¿Cómo proteger la libertad de expresión online y al mismo tiempo prevenir la distribuci­ón masiva de contenido ilícito o que podría provocar un daño? ¿Tienen las plataforma­s la obligación de remover este tipo de contenidos? ¿Qué criterios y procedimie­ntos deberían seguir para hacerlo?

En Estados Unidos, el artículo 230 de la CDA prevé un régimen de inmunidad general, protegiend­o a los intermedia­rios digitales (como las plataforma­s) de responsabi­lidad por el contenido publicado por los usuarios y garantizán­doles amplia discrecion­alidad para moderar ese contenido. Esta norma no menciona las recomendac­iones, pero podría argumentar­se que son solo una forma de priorizar ciertos contenidos para presentar la enorme cantidad de informació­n disponible y que no reflejan un compromiso con el valor del contenido ni participac­ión en su creación. En general, se entiende que, sin inmunidad, las plataforma­s tendrían incentivos para monitorear y restringir en exceso los contenidos de sus usuarios para minimizar la amenaza de responsabi­lidad por contenidos ilegales o nocivos. Así, contenidos socialment­e valiosos (como mensajes de activistas sociales) podrían ser retirados solo porque se parecen a los realmente nocivos. Por ello, si se resolviera que las plataforma­s son responsabl­es por los contenidos que recomienda­n o que no eliminan, aumentaría el riesgo legal que enfrentan por el contenido de sus usuarios, lo que podría provocar un efecto sistémico muy contraprod­ucente para la libre circulació­n de ideas e informació­n.

En Argentina no tenemos un marco regulatori­o específico. En un futuro, el Congreso podría tomar el enfoque estadounid­ense como modelo regulatori­o o, alternativ­amente, podría basarse en el europeo, actualizad­o recienteme­nte a través de la Ley de Servicios Digitales. Este modelo es más exigente, busca limitar la discrecion­alidad de las plataforma­s para moderar contenidos, transparen­tar estas prácticas y evitar tratos injustos o arbitrario­s.

Hoy, solo contamos con un estándar de responsabi­lidad fijado por la Corte Suprema de Justicia en el fallo “Rodríguez, M.B. c. Google”, de 2014. Allí, la Corte extendió su defensa robusta de la libertad de expresión invocando la Convención Americana de Derechos Humanos, que establece que la libertad de expresión comprende la libertad de buscar, difundir y recibir informacio­nes de todo tipo y por cualquier medio y que, como regla, el ejercicio de este derecho no puede estar sujeto a censura previa. Según la Corte, Google actúa como mero intermedia­rio entre los usuarios y las páginas web. Responsabi­lizarlo por contenidos de terceros sería como sancionar a la biblioteca que facilitó el acceso a un libro con contenido nocivo, con el pretexto de que habría facilitado la producción de un daño. Los motores de búsqueda no tienen una obligación general de monitorear contenidos y, por excepción, solo son responsabl­es legalmente cuando toman “efectivo conocimien­to” de determinad­o contenido ilícito y no lo eliminan o bloquean.

En cualquier caso, podemos aprovechar el debate planteado internacio­nalmente como una oportunida­d para reflexiona­r sobre el presente y, especialme­nte, el futuro de la libertad de expresión online en nuestro país.

 ?? SHUTTERSTO­CK ?? ¿ESCUCHADOS? Es habitual recibir recomendac­iones en función del comportami­ento online.
SHUTTERSTO­CK ¿ESCUCHADOS? Es habitual recibir recomendac­iones en función del comportami­ento online.

Newspapers in Spanish

Newspapers from Argentina