Facebook utiliza la inteligencia artificial para predecir su estado mental a partir de sus publicaciones.

En marzo de 2017, Facebook lanzó un ambicioso proyecto para prevenir el suicidio con inteligencia artificial.

Después de una serie de suicidios que se transmitieron en vivo en la plataforma, el esfuerzo por usar un algoritmo para detectar signos de autolesiones potenciales buscó abordar de manera proactiva un problema grave.

Pero más de un año después, tras una ola de escándalos de privacidad que cuestionaron el uso de los datos de Facebook, la idea de que Facebook cree y almacene datos de salud mental viables sin el consentimiento del usuario hace que muchos expertos en privacidad se preocupen sobre si se puede confiar en Facebook. Almacenar inferencias sobre los detalles más íntimos de nuestras mentes.

El algoritmo toca casi todas las publicaciones en Facebook, calificando cada parte del contenido en una escala de cero a uno, y una de ellas expresa la mayor probabilidad de "daño inminente", según un representante de Facebook.

Solo el proceso de creación de datos es motivo de preocupación para Natasha Duarte, analista de políticas del Centro para la Democracia y la Tecnología.

"Creo que esto debería considerarse información confidencial de salud", dijo. "Cualquier persona que esté recopilando este tipo de información o que esté haciendo este tipo de inferencias acerca de las personas debería considerarla como información de salud sensible y tratarla de manera muy sensible como tal".

Las leyes de protección de datos que rigen la información de salud en los Estados Unidos actualmente no se aplican a los datos creados por el algoritmo de prevención del suicidio de Facebook, según Duarte. En los EE. UU., La información sobre la salud de una persona está protegida por la Ley de responsabilidad y portabilidad del seguro de salud (HIPAA, por sus siglas en inglés) que exige protecciones de privacidad específicas, incluidas las restricciones de encriptación y uso compartido, al manejar los registros de salud. Pero estas reglas solo se aplican a las organizaciones que brindan servicios de salud, como hospitales y compañías de seguros.

Las empresas como Facebook que están haciendo inferencias sobre la salud de una persona a partir de fuentes de datos no médicos no están sujetas a los mismos requisitos de privacidad y, según Facebook, saben tanto y no clasifican la información que hacen como información de salud confidencial.

Facebook no ha sido transparente acerca de los protocolos de privacidad que rodean los datos sobre el suicidio que crea. Un representante de Facebook le dijo a Business Insider que los puntajes de riesgo de suicidio que son demasiado bajos para ser revisados ​​o escalados se almacenan durante 30 días antes de ser borrados, pero Facebook no respondió cuando se le preguntó cuánto tiempo y en qué forma los datos sobre puntajes de riesgo de suicidio más altos e intervenciones posteriores se almacenan.
Con la tecnología de Blogger.