La IA de Facebook discrimina a las mujeres en los anuncios de trabajo

Una auditoría revela que dos puestos de trabajo similares se mostraron de forma desigual en función del género, aunque este no afectaba al desempeño. No es la primera vez que se destapa este tipo de ilegalidad en los algoritmos publicitarios de la red social, que no parece estar haciendo gran cosa por solucionarlo

Según la última auditoría del servicio de publicidad de Facebook, la empresa no muestra ciertos anuncios de puestos de trabajo a las mujeres debido a su género.

La auditoría, realizada por los investigadores independientes de la Universidad del Sur de California (USC, en EE. UU.), revela que el sistema de publicación de anuncios de Facebook muestra diferentes novedades de empleo a las mujeres y a los hombres, aunque los puestos de trabajo en cuestión requieren las mismas cualificaciones. Esto se considera discriminación de género según la Ley de Igualdad de Oportunidades de Empleo de EE. UU., que prohíbe la segmentación de anuncios basada en las características protegidas. Los hallazgos se han producido a pesar de años de activismo y juicios, y después de las promesas de Facebook de que revisaría cómo publica los anuncios.

Los investigadores se registraron como anunciantes en Facebook y compraron espacios de ofertas de empleo con cualificaciones idénticas, pero con diferente demografía del mundo real. Anunciaron dos puestos de trabajo de repartidor: uno para Domino’s (reparto de pizzas) y otro para Instacart (reparto de alimentos). Actualmente, hay más hombres repartidores que mujeres en Domino’s y viceversa en Instacart.

Aunque la auditoría no se basaba en la información demográfica, que es una función que Facebook deshabilitó en marzo de 2019 para los anuncios de vivienda, crédito y empleo después de varias demandas, los algoritmos siguen mostrando los anuncios a grupos demográficos estadísticamente distintos. El anuncio de Domino’s se mostró a más hombres que mujeres, y el anuncio de Instacart fue mostrado más a mujeres que a hombres.

Los investigadores encontraron el mismo patrón en los anuncios para otros puestos de trabajo: ingenieros de software para Nvidia (con más hombres) y Netflix (más mujeres), y comerciales de ventas de coches (más hombres) y de joyas (más mujeres).

Los hallazgos sugieren que los algoritmos de Facebook de alguna manera detectan la actual distribución demográfica de estos trabajos, que suele diferir por razones históricas. (Los investigadores no lograron descubrir por qué es así, porque Facebook no quiere explicar cómo funciona su sistema de publicación de anuncios). “Facebook reproduce esos sesgos cuando publica sus anuncios, aunque no hay una justificación de cualificación”, asegura la profesora asistente en la USC Aleksandra Korolova que es coautora del estudio con su colega John Heidemann y su asesor de doctorado Basileal Imana.

El estudio proporciona la prueba más reciente de que Facebook no ha resuelto sus problemas de publicidad discriminatoria desde que ProPublica sacó a la luz este tema en octubre de 2016. En ese momento, ProPublica reveló que la plataforma permitía a los anunciantes de las oportunidades laborales y de vivienda excluir a cierto público por su género y por la raza. Estos grupos reciben una protección especial bajo la ley estadounidense, lo que convierte esta práctica en ilegal. Se necesitaron dos años y medio y varias disputas legales para que Facebook finalmente eliminara esa función.

Pero unos meses más tarde, el Departamento de Vivienda y Urbanismo (HUD) de EE. UU. presentó una nueva demanda, alegando que los algoritmos de publicidad de Facebook seguían excluyendo algunos grupos de usuarios en cuanto los anuncios de vivienda sin que el anunciante especificara esa exclusión. Un equipo de investigadores independientes, incluida Korolova, liderado por los investigadores Muhammad Ali y Piotr Sapieżyński de la Universidad Northeastern (EE .UU.), corroboró esas acusaciones una semana después. Descubrieron, por ejemplo, que los anuncios sobre venta de las viviendas aparecían más a usuarios blancos, mientras que los anuncios de alquileres fueron mostrados más a las minorías.

Korolova quería volver a analizar este tema con su nueva auditoría porque los cargos por discriminación laboral son mayores que los relacionadas con vivienda. Si bien cualquier sesgo en la publicación de anuncios basado en las características protegidas resulta ilegal, en el caso de la vivienda, el derecho laboral de EE. UU. lo considera justificable si el sesgo se debe a legítimas diferencias de calificación. La nueva metodología investiga este factor.

“El diseño del experimento se ve muy claramente”, opina Sapieżyński, que no participó en el último estudio. Si bien algunos podrían argumentar que los comerciales de venta de coches y los de joyas tienen distintas cualificaciones, las diferencias entre entregar pizza y entregar alimentos son insignificantes. “Estas diferencias de género no se pueden explicar por las distintas cualificaciones o por la falta de ellas. Facebook ya no puede decir que [esto es] defendible por ley”, añade Sapieżyński.

La publicación de esta auditoría se produce en medio de un debate cada vez mayor sobre el sesgo en la inteligencia artificial (IA) de Facebook. Una reciente investigación de MIT Technology Review sobre el equipo de Responsible AI de Facebook revela que este grupo, formado en 2018, no se ocupa de cuestiones como la amplificación algorítmica de la desinformación y ni la polarización, debido a su dedicación exclusiva al sesgo de la IA. La compañía publicó una actualización de blog poco después, en la que destaca la importancia de ese trabajo y especifica: “[Facebook quería] comprender mejor los posibles errores que podrían afectar nuestro sistema de anuncios, como parte de nuestro trabajo continuo y más amplio de estudiar la equidad algorítmica en la publicidad”.

En un comunicado, el portavoz de Facebook Joe Osborn afirma: “Hemos tomado medidas significativas para abordar los problemas de discriminación en los anuncios y actualmente tenemos equipos que trabajan en la equidad de la publicidad. Nuestro sistema tiene en cuenta muchos indicadores para intentar mostrar a las personas los anuncios que más les interesan, pero entendemos las preocupaciones planteadas en la auditoría… Seguimos trabajando en estrecha colaboración con la comunidad de derechos civiles, los reguladores y los expertos sobre estos importantes asuntos”.

Sin embargo, a pesar de estas afirmaciones, Korolova resalta que no encontró ningún cambio notable entre la auditoría de 2019 y la más reciente en la forma en la que funcionan los algoritmos de publicación de anuncios en Facebook. Y critica: “Desde ese punto de vista, es realmente decepcionante, porque ya les informamos de esto hace dos años“. También se ofreció a trabajar con Facebook para abordar estos problemas, pero, añade: “No hemos recibido respuesta. Al menos a mí no me han contactado”.

En entrevistas previas, la empresa dijo que no podía comentar los detalles de cómo trabajaba para mitigar la discriminación algorítmica en su servicio de publicidad debido a un litigio en curso. El equipo de publicidad afirmó que su progreso se había visto limitado por desafíos técnicos.

Sapieżyński, que ha realizado tres auditorías de la plataforma, considera que esto no tiene nada que ver con el problema. “Facebook todavía tiene que reconocer que existe un problema”, sostiene. Mientras el equipo resuelve los problemas técnicos también hay una fácil solución provisional: podría desactivar la segmentación algorítmica de publicidad específicamente para los anuncios de vivienda, empleo y préstamos sin afectar el resto de sus servicios. Realmente es una simple cuestión de voluntad política, señala Sapieżyński.

Otro investigador de Northeastern que estudia el sesgo algorítmico, pero que no participó en la investigación de Korolova o Sapieżyński, Christo Wilson, coincide: “¿Cuántas veces los investigadores y periodistas tienen que detectar estos problemas antes de simplemente aceptar que todo el sistema de la segmentación de anuncios falla?”.

Fuente: www.technologyreview.es