Facebook desarrolla un algoritmo para detectar conductas suicidas antes que los humanos

Gracias a la inteligencia artificial, la compañía puede actuar más rápido ante casos de posible suicidio

Félix Palazuelos    27 NOV 2017 – 18:55 CET   El País

La nueva tecnología de detección proactiva que estrena Facebook este lunes rastreará todos los post en busca de patrones relacionados con conductas suicidas. Este software, desarrollado para salvar vidas, permite al equipo humano de la compañía facilitar ayuda psicológica a la persona en riesgo o a sus amigos y familiares más rápido al no necesitar que otros usuarios informes sobre estas conductas con antelación.

La tecnología, que ya estaba siendo probada en Estados Unidos, ya está activa en todo el mundo, salvo en la Unión Europea, donde sus restrictivos reglamentos para salvaguardar la privacidad de los internautas lo impiden. La inteligencia artificial de Facebook está entrenada para reconocer patrones en entradas escritas y vídeos en directo sirviéndose del chat. Respuestas como «¿Te encuentras bien?» o «¿Necesitas ayuda?» son buenos indicadores de que una persona puede estar en riesgo, dice la compañía. Según Facebook, se han dado casos en los que los algoritmos han detectado casos de riesgo desapercibidos para las personas.

Pero las máquinas son sólo una simple herramienta del equipo de moderadores. Su objetivo es agilizar la detección. Facebook señala que está dedicando más recursos para la prevención de suicidios y entrenando a sus empleados para lidiar con casos las 24 horas del día los siete días de la semana. Ya son más de 80 las organizaciones que apoyan la iniciativa como Save.org o la Red Nacional de Prevención del Suicidio estadounidense.

Las capacidades tecnológicas de Facebook para detectar conductas pueden asustar a usuarios y organizaciones

En los vídeos en directo, Facebook avisará a un revisor especializado y hará más prominentes las funciones a los espectadores para informar sobre un posible caso de riesgo de suicidio. Cuando un usuario informa sobre una situación de riesgo, la inteligencia artificial facilitará al moderador las partes claves del vídeo y clasificará por prioridad todos los casos detectados para acelerar la acción donde más se necesita.

El despliegue es global porque Facebook cuenta con recursos locales, incluyendo líneas telefónicas de ayuda y comunicación con las autoridades cercanas. El moderador puede contactar con profesionales, familiares o amigos del usuario en riesgo.

Para Facebook, el despliegue de este tipo de funciones es de vital importancia para construir una comunidad más segura y para conseguir paliar los errores cometidos en el pasado con la retransmisión de suicidios en directo o el impacto en las elecciones estadounidenses y la difusión de noticias falsas.

Facebook es el gran protagonista junto a Google del desarrollo y uso de algoritmos de inteligencia artificial

Rastrear patrones de actividad puede salvar vidas, pero también preocupar a usuarios y organizaciones que temas que ese seguimiento pueda ser empleado para otros menesteres. Los pioneros de la red social como Roger MacNamee han criticado abiertamente el uso de la tecnología para persuadir a usuarios con fines propagandísticos.

«El uso malicioso de la IA será un riesgo siempre, por lo que es importante establecer buenas prácticas hoy para sopesar el balance entre la trata masiva de datos y su utilidad, teniendo en cuenta siempre el sesgo humano que pueden arrastrar las máquinas», dice Alex Stamos, jefe de seguridad informática de Facebook.

Mark Zuckerberg, fundador y consejero delegado de la compañía, defendió abiertamente el desarrollo de la inteligencia artificial sin una regulación estricta de por medio ante el discurso que promulgó Elon Musk sobre sus peligros en junio.

Deja una respuesta