Robert Godwin Sr. estaba caminando a casa después de una comida de Pascua con su familia cuando recibió un disparo de un extraño, quien después publicó el video del asesinato en Facebook. El escalofriante video permaneció por horas el domingo antes de ser eliminado por Facebook. Continúa siendo compartido en línea.

Steve Stephens, el sospechoso de asesinato Cleveland acusado de publicar el video, fue encontrado muerto este martes en el condado de Erie, Pensilvania, de acuerdo con un reporte de la policía estatal en Twitter.

“Después de una breve persecución, Stephens se disparó a sí mismo”, dijo la policía del estado de Pennsylvania.

A todo esto, Facebook tiene en cuenta que queda trabajo por hacer. Justin Osofsky, VP de operaciones globales de la red social, admitió que “tienen mucho por mejorar”.

“Deshabilitamos la cuenta del sospechoso a los 23 minutos de recibir el primer reporte sobre el video de asesinato, y dos horas después de recibir un reporte de cualquier tipo”, dijo. Facebook se encuentra ahora en un proceso de revisión sobre cómo etiquetan los videos los usuarios.

Es simplemente el más reciente de una lista de videos inquietantes de asesinato, suicidio, tortura y decapitación publicados en Facebook, si bien por un periodo breve, ya sea a través de transmisiones en vivo o vídeos cargados.

El nuevo video revive preguntas sobre cómo trata la red social el contenido ofensivo. ¿Cuántas personas tiene Facebook en todo el mundo moderando y etiquetando este contenido? ¿Cuál es el tiempo de respuesta promedio para eliminarlo? ¿Facebook guarda el contenido para las fuerzas de la ley una vez que lo eliminan?

Facebook, como varios de sus compañeros de la industria de la tecnología ha permanecido tradicionalmente ambiguo sobre estos detalles, fuera de señalar a sus estándares comunitarios. Facebook llamó al incidente un “crimen horroroso” en un comunicado el lunes.

“No permitimos este tipo de contenido en Facebook”, dijo la empresa en un comunicado proporcionado a CNNTech. “Trabajamos arduamente para mantener un ambiente seguro en Facebook y estamos en contacto con las fuerzas policiales en las emergencias en donde existen amenazas directas a la seguridad física”.

Una fuente cercana a Facebook dice que tiene “miles” de personas revisando el contenido en todo el mundo. Una vez que se reporta un contenido como inapropiado por parte de los usuarios, se revisa típicamente “dentro de 24 horas”.

 

 

Texto publicado originalmente en: Expansion