UE INTERNET

El 28% de alertas por discurso de odio en internet llevó a retirar contenidos

El 28 % de las notificaciones que las grandes empresas de internet como Facebook, Twitter y Youtube recibieron en los últimos meses, en relación con supuestos casos de discurso de odio, llevaron a una retirada de esos contenidos, según un informe difundido hoy por la Comisión Europea.

<p>Imagen de un usuario de internet.EFE/MRC</p>

Imagen de un usuario de internet.EFE/MRC

El estudio recoge los primeros resultados de la aplicación de un código de conducta acordado por las grandes firmas de las tecnologías de la información el pasado mayo para combatir el discurso de odio en la red en Europa.

Facebook, a la cabeza

Los resultados iniciales revelan que hasta la fecha se recibieron 600 notificaciones y que en 169 casos se produjo la eliminación de esos contenidos.

Facebook recibió 270 alertas, seguida de Twitter (163) y YouTube, con 123 notificaciones.

Tras los avisos, Facebook suprimió el contenido en el 28 % de los casos, mientras que Twitter lo hizo en el 19 % y Youtube en el 48,5 % de los supuestos.

Ninguna alerta se dirigió a Microsoft, según el informe.

Contenidos que incitan al odio

El 23,7 % de las notificaciones alertaba de la presencia de contenidos de carácter antisemita, mientras que el 21 % denunciaba críticas por el “origen nacional”, y en el 20,2 % de los casos se hablaba de elementos que revelaban “odio antimusulmán”.

La comisaria europea de Justicia, Vera Jourová, valoró los avances realizados y subrayó que las empresas dedicadas a los medios sociales deben asumir su parte de responsabilidad en relación con la radicalización en línea, el discurso de odio ilegal o las noticias falsas.

“Aunque las empresas están moviéndose en la buena dirección, los primeros resultados demuestran que las sociedades IT necesitan hacer más”, dijo la comisaria.

Mayor rapidez

En particular, se refirió al retraso en la revisión de los contenidos, ya que las grandes empresas de internet revisan en la actualidad en el plazo de 24 horas solo el 40 % de las notificaciones que alertan de casos de incitación al odio, frente al objetivo fijado en el código de conducta de analizar todos esos avisos el mismo día en que se reciben.

En la práctica, el 40 % de las notificaciones fueron revisadas en 24 horas, mientras que el 43 % fueron supervisadas en el plazo de 48 horas.

Facebook examinó los contenidos sospechosos en menos de 24 horas en la mitad de los casos, y un 41,9 % en menos de dos días.

En el caso de Youtube los plazos fueron 60,8 % y 9,8 %, respectivamente.

Por su parte, Twitter analizó el 23,5 % de las alertas el primer día, y el 56 % en el plazo de 48 horas.

Combatir el discurso de odio

Los resultados de este informe se debatirán en un grupo de alto nivel para combatir el racismo, la xenofobia y todas las formas de intolerancia, que tendrá lugar el 7 de diciembre en Bruselas.

También se tratarán en la reunión de los ministros de Justicia del próximo jueves, y en el Foro Europeo de Internet que se celebrará ese mismo día.

Un segundo ejercicio de revisión del funcionamiento tendrá lugar en 2017 para analizar el progreso y decidir próximos pasos a dar, indicó la CE.

Una docena de organizaciones no gubernamentales de nueve países analizó las respuestas a las notificaciones durante un periodo de seis semanas.

Etiquetado con: , ,
Publicado en: Internet

lablogosfera-de-efefuturo-300×120-300×131

lablogosfera-de-efefuturo-300x120-300x131

YouTube

Map

gif_EFE_verde_v2300x125

gif_EFE_verde_v2300x125

RSS Feed desconocido

Uso de cookies

Utilizamos cookies propias y de terceros para mejorar nuestros servicios y mostrarle publicidad relacionada con sus preferencias mediante el análisis de sus hábitos de navegación. Si continúa navegando, consideramos que acepta su uso. Puede obtener más información, o bien conocer cómo cambiar la configuración, en nuestra política de cookies, pinche el enlace para mayor información.

Login

Registro | Contraseña perdida?