Se popularizan algoritmos de inteligencia artificial que detectan acoso laboral o sexual en chats y emails

Los movimientos de igualdad y respeto de género llegan también a la tecnología. Cada vez son más comunes las soluciones que, basadas en algoritmos de inteligencia artificial, llegan a las empresas para detectar cualquier tipo de conducta indebida.
Se trata de algoritmos diseñados para procesar y analizar comunicaciones corporativas —principalmente correo electrónico y chats— con el fin de detectar acoso sexual o laboral, mobbing o lenguaje agresivo o amenazador en el entorno laboral.
Estos bots están entrenados para identificar indicios de acoso a partir de textos que sirven como “muestra” sobre qué palabras y tonos tienen cierta probabilidad de corresponderse con mensajes dañinos que, en última instancia, pueden suponer un problema potencial tanto para empleados como para la compañía.
En base a esa probabilidad este tipo de bots ‘deciden’ si un texto es aceptable o si no lo es, y en este último caso el algoritmo puede bloquearlo o notificarlo a los departamentos jurídicos o de recursos humanos, por ejemplo.
Que un sistema automático lea todos los mails y conversaciones de chats o entre empleados suscita recelo en torno al siempre peliagudo asunto de la privacidad, especialmente en la fase de entrenamiento de los bots: en esa primera fase es necesaria la supervisión humana del sistema; es decir, que otros empleados lean fragmentos seleccionados por la inteligencia artificial e indiquen al sistema si se trata de un falso positivo o de un falso negativo.
 
El contenido original de la nota fue publicado en Iproup.com. Para leer la nota completa visitá aquí

Published by . 14/01/2020


Comments are closed here.