El Departamento de Justicia está socavando a Google en el caso de la Corte Suprema sobre el contenido de las redes sociales


La gente pasa frente a un anuncio en una cartelera de YouTube el 27 de septiembre de 2019 en Berlín, Alemania.

Sean Gallup | imágenes falsas

El Departamento de Justicia advirtió a la Corte Suprema contra una interpretación amplia de una ley que protege a las empresas de redes sociales de la responsabilidad por lo que los usuarios publican en sus plataformas, una posición que socava El Google Defensa en un caso que podría reconfigurar el papel de los moderadores de contenidos en las plataformas digitales.

En un memorando presentado el miércoles dirigido por el fiscal general interino del DOJ, Brian Fletcher, la agencia dijo que la Corte Suprema debería revocar un fallo de la corte de apelaciones que encontró protegida la Sección 230 de la Ley de Decencia en las Comunicaciones. El Google de ser considerado responsable bajo la Ley Anti-Terrorismo de los Estados Unidos.

La Sección 230 permite que las plataformas en línea participen en la moderación de contenido de buena fe mientras las protege de ser consideradas responsables de las publicaciones de sus usuarios. Las plataformas tecnológicas afirman que es una protección importante, especialmente para las plataformas más pequeñas que podrían enfrentarse a costosas batallas legales porque la naturaleza de las plataformas de redes sociales dificulta la detección rápida de todas las publicaciones maliciosas.

Pero la ley ha sido un tema candente en el Congreso, ya que los legisladores de ambos lados argumentan que el escudo de responsabilidad debería limitarse significativamente. Pero mientras muchos republicanos creen que las asignaciones de moderación de contenido en la ley deberían recortarse para reducir lo que afirman es la censura de las voces conservadoras, muchos demócratas se oponen a cómo la ley protege las plataformas que albergan información errónea y discurso de odio.

Los demandantes en el caso de la Corte Suprema conocido como Gonzalez v. Un sitio para compartir videos para ayudar en la publicidad y los esfuerzos de reclutamiento.

Los demandantes presentaron cargos contra Google en virtud de la Ley Antiterrorista de 1990, que permite a los ciudadanos estadounidenses afectados por el terrorismo reclamar daños y perjuicios y se actualizó en 2016 para agregar responsabilidad civil secundaria a “cualquier persona que ayude e instigue, proporcionando deliberadamente una asistencia significativa” a un “acto de terrorismo internacional”.

La familia Gonzales alega que YouTube no ha hecho lo suficiente para evitar que ISIS use su plataforma para difundir su mensaje. Afirman que, aunque YouTube tiene políticas contra el contenido terrorista, no supervisa adecuadamente la plataforma ni evita que ISIS la use.

Tanto el tribunal de primera instancia como el tribunal de apelaciones acordaron que la Sección 230 protege a Google de la responsabilidad por alojar contenido.

Si bien no tomó una posición sobre si Google debería ser responsable en última instancia, recomendó que la administración anule el fallo de la corte de apelaciones y lo envíe de vuelta a la corte inferior para una revisión adicional. La agencia argumentó que si bien la Sección 230 evitaría las reclamaciones hechas por los demandantes en base a la ley antiterrorista basada en la supuesta falla de YouTube para bloquear los videos de ISIS de su sitio, “la ley no impide las reclamaciones basadas en las supuestas recomendaciones de contenido de ISIS de YouTube. “

El Departamento de Justicia argumentó que el tribunal de apelaciones tenía razón al encontrar que la Sección 230 de YouTube estaba protegida de responsabilidad por permitir que los usuarios asociados con ISIS publicaran los videos porque no actuó como editor editando o creando los videos. Pero, agregó, las acusaciones sobre “el uso de algoritmos y funciones relacionadas de YouTube para recomendar contenido de ISIS requieren un análisis diferente”. El Departamento de Justicia dijo que la corte de apelaciones no consideró adecuadamente si los reclamos de los demandantes ameritan responsabilidad según esa teoría y, como resultado, la Corte Suprema debe devolver el caso a la corte de apelaciones para que puedan hacerlo.

“A lo largo de los años, YouTube ha invertido en tecnología, equipos y políticas para identificar y eliminar contenido extremista”, dijo un portavoz de Google en un comunicado. “Trabajamos regularmente con las fuerzas del orden, otras plataformas y la sociedad civil para compartir inteligencia y mejores prácticas. Socavar la Sección 230 hará que combatir el contenido dañino sea más difícil, no más fácil, lo que hará que Internet sea menos seguro y menos útil para todos nosotros”.

La Cámara del Progreso, un grupo de la industria que cuenta con Google como uno de sus socios corporativos, advirtió que el informe del Departamento de Justicia invita a un precedente peligroso.

“La posición del Fiscal General obstaculizará la capacidad de las plataformas para recomendar la verdad sobre las mentiras, la ayuda sobre el dolor y la empatía sobre el odio”, dijo Adam Kovacevic, director ejecutivo de la Cámara del Progreso, en un comunicado. “Si la Corte Suprema falla sobre González, las plataformas no podrán recomendar ayuda para quienes estén considerando autolesionarse, información sobre salud reproductiva para mujeres que estén considerando abortar e información electoral precisa para personas que quieran votar. Eso desencadenaría una avalancha de demandas.” de trolls y enemigos que no están contentos con los esfuerzos de las plataformas para crear comunidades en línea seguras y saludables”.

VER: El desordenado negocio de la moderación de contenido en Facebook, Twitter y YouTube

¿Por qué la moderación de contenido cuesta miles de millones y es tan difícil para Facebook, Twitter, YouTube, etc.?

Leave a Comment