Cómo Google trató de silenciar a un crítico y encendió un movimiento

Timnit Gebru, un gigante en el mundo de la IA y luego co-líder del equipo de ética de la IA de Google, fue expulsada de su trabajo en diciembre.
Gebru había estado peleando con la compañía por un artículo de investigación del que era coautora, que exploraba los riesgos de los modelos de inteligencia artificial que el gigante de las búsquedas usa para impulsar sus productos principales.
El documento destacó los posibles sesgos (raciales, de género, occidentales y más) de estos modelos de lenguaje, así como las enormes emisiones de carbono necesarias para calcularlos.
Google quería que se retirara el artículo o que se eliminaran los nombres de los autores afiliados a Google; Gebru dijo que lo haría si Google participara en una conversación sobre la decisión. En cambio, le dijeron a su equipo que ella había renunciado.
La reacción fue inmediata. Miles de empleados de Google e investigadores externos saltaron en su defensa y acusaron a Google de intentar marginar a sus críticos , en particular a aquellos con antecedentes poco representados. Defensora de la diversidad y la equidad en el campo de la inteligencia artificial, Gebru es una mujer negra y fue una de las pocas en la organización de investigación de Google.
Posteriormente, el director ejecutivo de Alphabet, Sundar Pichai, prometió una investigación.
Pero el mismo día que la empresa concluyó su investigación, despidió a Margaret Mitchell, codirectora de Gebru y fundadora del equipo de IA ética de Google. Mitchell había estado usando un algoritmo para revisar sus comunicaciones laborales, buscando evidencia de discriminación contra Gebru.
Para muchos de los que trabajan en la ética de la IA, la repentina salida de Gebru y sus continuas consecuencias han sido un shock, pero no una sorpresa. Es un claro recordatorio de hasta qué punto las grandes tecnologías dominan su campo.
Para que la IA funcione en el mejor interés de todos los miembros de la sociedad, la dinámica de poder en toda la industria debe cambiar. Las personas con más probabilidades de verse perjudicadas por los algoritmos, las de comunidades marginadas, necesitan participar en el desarrollo de la IA.

El contenido original de la nota fue publicado en Fastcompany.com. Para leer la nota completa visitá aquí

Published by . 23/03/2021


Comments are closed here.