Jueves 28 de Marzo de 2024

Hoy es Jueves 28 de Marzo de 2024 y son las 07:38 -

3 de diciembre de 2017

Facebook detectará los mensajes con pensamientos suicidas

En la red social más importante del mundo pondrán en marcha una nueva herramienta basada en inteligencia artificial que podrá captar los textos en comentarios o transmisiones en vivo donde aparezcan palabras de potenciales personas que quieran quitarse la vida. Esto abrirá infinitas posibilidades de instrumentación, para prevenir bullying y otros temas relacionados.

Facebook

pondrá en marcha una nueva herramienta de inteligencia artificial que apunta a detectar y disuadir potenciales suicidios en usuarios mientras usan la plataforma.

La compañía buscará reconocer patrones en las publicaciones y en los videos en directo de los usuarios que sugieran que un persona está considerando la opción de acabar con su vida, tal como señaló la empresa en un comunicado difundido por EFE.

Según el vicepresidente de Gestión Productiva de

Facebook

, Guy Rosen, también mejorarán los mecanismos de identificación de quienes serían los primeros en responder ante un caso así, y añadirán más investigadores en su equipo para informar de suicidios y autolesiones. Las técnicas, que ya están siendo probadas, incluyen un nuevo algoritmo para detectar situaciones que, hasta ahora, pasaban desapercibidas.

La red social indicó que pretende que la herramienta esté disponible no solo en territorio estadounidense, sino también en la mayoría de países del mundo, salvo la Unión Europea (UE).

"Podemos conectar a una persona angustiada con alguien que pueda apoyarla", afirmó Rosen, quien aseguró que en las labores de prevención se analizan la aparición de comentarios como "¿estás bien?" o una gran cantidad de respuesta de los usuarios ante la emisión de un vídeo.

Con el mismo fin, la compañía recordó que contrató en marzo a 3.000 personas para revisar el contenido que pudiera estar relacionado con el crimen o el suicidio, que se añadieron a los 4.500 que trabajaban en

Facebook

para evitar prácticas que violaran sus estándares.

La empresa intenta atajar casos como el ocurrido el pasado abril, cuando un tailandés retransmitió en directo a través de la red social cómo mataba a su hija de 11 meses y posteriormente se suicidaba, un video que después fue eliminado por la plataforma.

COMPARTIR:

Comentarios