Facebook y EE. UU. firman un acuerdo para poner fin a los anuncios inmobiliarios discriminatorios
New York (AP) — Facebook cambiará sus algoritmos para evitar la publicidad discriminatoria de viviendas y su empresa matriz se someterá a la supervisión judicial para resolver una demanda presentada por el Departamento de Justicia de Estados Unidos el martes.
En un comunicado, funcionarios del gobierno de EE. UU. dijeron que habían llegado a un acuerdo con Meta Platforms Inc., anteriormente conocida como Facebook Inc., para resolver la demanda presentada simultáneamente en la corte federal de Manhattan.
Según el comunicado, fue el primer caso del Departamento de Justicia que desafió la discriminación algorítmica en virtud de la Ley de Vivienda Justa. Facebook ahora estará sujeto a la aprobación del Departamento de Justicia y la supervisión judicial para su sistema de distribución y orientación de anuncios.
El fiscal federal Damian Williams calificó la demanda de “innovadora”. La fiscal general adjunta, Kristen Clarke, lo calificó de “histórica”.
Ashley Settle, una portavoz de Facebook, dijo en un correo electrónico que la compañía estaba «construyendo un método de aprendizaje automático novedoso donde nuestro sistema de anuncios cambiará la forma en que se entregan los anuncios de viviendas a las personas que residen en los EE. UU. en diferentes grupos demográficos».
Ella dijo que la compañía extendería su nuevo método para anuncios relacionados con el empleo y el crédito en los EE. UU.
“Estamos emocionados de ser pioneros en este esfuerzo”, agregó Settle en un correo electrónico.
Williams dijo que la tecnología de Facebook en el pasado violó la Ley de Vivienda Justa en línea “al igual que cuando las empresas se involucran en publicidad discriminatoria utilizando métodos publicitarios más tradicionales”.
Clarke dijo que «las empresas como Meta tienen la responsabilidad de garantizar que sus herramientas algorítmicas no se utilicen de manera discriminatoria».
Según los términos del acuerdo, Facebook dejará de usar una herramienta publicitaria para anuncios de vivienda que, según el gobierno, empleó un algoritmo discriminatorio para ubicar a los usuarios que «se parecen» a otros usuarios según las características protegidas por la Ley de Vivienda Justa, dijo el Departamento de Justicia. Para el 31 de diciembre, Facebook debe dejar de usar la herramienta que alguna vez se llamó «Lookalike Audience», que se basa en un algoritmo que, según EE. UU., discrimina por raza, sexo y otras características.
Facebook también desarrollará un nuevo sistema durante el próximo medio año para abordar las disparidades raciales y de otro tipo causadas por el uso de algoritmos de personalización en su sistema de entrega de anuncios de vivienda, dijo.
Si el nuevo sistema es inadecuado, el acuerdo de conciliación puede rescindirse, dijo el Departamento de Justicia. Según el acuerdo, Meta también debe pagar una multa de poco más de $115,000.
El anuncio se produce después de que Facebook ya acordó en marzo de 2019 revisar sus sistemas de orientación de anuncios para evitar la discriminación en los anuncios de vivienda, crédito y empleo como parte de un acuerdo legal con un grupo que incluye a la Unión Estadounidense de Libertades Civiles, la Alianza Nacional de Vivienda Justa y otros. .
Los cambios anunciados entonces fueron diseñados para que los anunciantes que querían publicar anuncios de vivienda, empleo o crédito ya no pudieran dirigirse a personas por edad, género o código postal.
El Departamento de Justicia dijo el martes que el acuerdo de 2019 redujo las opciones de orientación potencialmente discriminatorias disponibles para los anunciantes, pero no resolvió otros problemas, incluida la entrega discriminatoria de anuncios de viviendas de Facebook a través de algoritmos de aprendizaje automático.