Discriminación en sistemas/modelos que toman decisiones trascendentales
La discriminación no es un concepto general, depende:
La presentación de Judging the algorithm dará una visión más interdisciplinar de este problema.
Clases protegidas (no en todos los contextos):
La definición de grupos protegidos va más allá e incluye las categorías no binarias y la interseccionalidad
There’s No Scientific Basis for Race—It’s a Made-Up Label. National Geographic. 2018, March 12.
Diferencias (O'Neil 2016):
O’Neil, C (2018). Armas de destrucción matemática
Zhao, J. et. al (2017). Men Also Like Shopping: Reducing Gender Bias Amplification using Corpus-level Constraints.
Análisis interseccional del rendimiento en reconocimiento facial de Amazon Rekognition. La menor tasa de acierto se da para las mujeres de piel oscura.
Fuente Buolamwini (2019). Response: Racial and Gender bias in Amazon Rekognition — Commercial AI System for Analyzing Faces.
Verna, E. C., & Lai, J. C. (2020). Time for Action to Address the Persistent Sex-Based Disparity in Liver Transplant Access. JAMA Surgery, 155(7), 545–547.https://doi.org10.1001/jamasurg.2020.1126
Ecuanimidad sin hacer nada (unawareness)
Actualizada del NIPS 2017 Tutorial on Fairness in Machine Learning
Un ejemplo excelente lo podeis ver en Straw, I., & Wu, H. (2022).
Straw, I., & Wu, H. (2022). Investigating for bias in healthcare algorithms: A sex-stratified analysis of supervised machine learning models in liver disease prediction. BMJ Health & Care Informatics, 29(1), e100457. https://doi.org/10.1136/bmjhci-2021-100457
Castelnovo, A., Crupi, R., Greco, G. et al. A clarification of the nuances in the fairness metrics landscape. Sci Rep 12, 4209 (2022). https://doi.org/10.1038/s41598-022-07939-1
Fuente Ntoutsi, E., Fafalios, P., Gadiraju, U., Iosifidis, V., Nejdl, W., Vidal, M.-E., … Staab, S. (2020). Bias in data-driven artificial intelligence systems—An introductory survey. WIREs Data Mining and Knowledge Discovery, 10(3), e1356. https://doi.org/10.1002/widm.1356
"Across all classifiers females suffer from a higher false negative rate (FNR), while males suffer from a higher false positive rate"
Straw I, Wu H. BMJ Health Care Inform 2022;29:e100457. doi:10.1136/bmjhci-2021-100457
"mixed results: the accuracy disparity benefits females across all classifiers, whereas the ROC_AUC disparity demonstrates a benefit for males in three out of four classifiers ... for all classifiers the FNR is consistently higher for females"
Straw I, Wu H. BMJ Health Care Inform 2022;29:e100457. doi:10.1136/bmjhci-2021-100457
Otras:
https://github.com/javism/seminariofate2022/blob/master/IndianLiverPatientDataset-seminar.ipynb
A. Valdivia, C. Hyde-Vaamonde, J. García-Marcos. Judging the algorithm: A case study on the risk assessment tool for gender-based violence implemented in the Basque country. https://arxiv.org/abs/2203.03723
Fuente Luke Vilain.
Valdivia, A., Sánchez‐Monedero, J., & Casillas, J. (2021). How fair can we go in machine learning? Assessing the boundaries of accuracy and fairness. Int J Intel Sys, 36(4), 1619–1643. https://doi.org/10.1002/int.22354
El grupo AYRNA en colaboración con el IMIBIC y otros centros trabaja en alternativas al MELD que no discriminen por género como estimador de riesgo de mortalidad en trasplantes hepáticos.
Guía práctica y herramienta sobre la obligación empresarial de información sobre el uso de algoritmos en el ámbito laboral. Ministerio de Trabajo y Economía Social. Gobierno de España. 2022. https://prensa.mites.gob.es/WebPrensa/noticias/laboral/detalle/4125
Proyecto AlgoRace. Investigación sobre discriminación racial e inteligencia artificial. 2021-2023. https://algorace.org/
O’Neil, C (2018). Armas de destrucción matemática. Capitán Swing. https://capitanswing.com/libros/armas-de-destruccion-matematica/
Catherine D'Ignazio and Lauren F. Klein (2020). Data Feminism. MIT Press. https://mitpress.mit.edu/9780262044004/
Solon Barocas and Moritz Hardt and Arvind Narayanan (2019). Fairness and Machine Learning: Limitations and Opportunities. http://www.fairmlbook.org
Moritz Hardt (2020). Fairness and Machine Learning (Part 1, Part 2) (MLSS 2020)
Zhao, J. et. al (2017). Men Also Like Shopping: Reducing Gender Bias Amplification using Corpus-level Constraints. https://www.aclweb.org/anthology/D17-1319
Buolamwini (2019). Response: Racial and Gender bias in Amazon Rekognition — Commercial AI System for Analyzing Faces.
Verna, E. C., & Lai, J. C. (2020). Time for Action to Address the Persistent Sex-Based Disparity in Liver Transplant Access. JAMA Surgery, 155(7), 545–547.https://doi.org10.1001/jamasurg.2020.1126
Straw, I., & Wu, H. (2022). Investigating for bias in healthcare algorithms: A sex-stratified analysis of supervised machine learning models in liver disease prediction. BMJ Health & Care Informatics, 29(1), e100457. https://doi.org/10.1136/bmjhci-2021-100457
Castelnovo, A., Crupi, R., Greco, G. et al. A clarification of the nuances in the fairness metrics landscape. Sci Rep 12, 4209 (2022). https://doi.org/10.1038/s41598-022-07939-1
Ntoutsi, E., Fafalios, P., Gadiraju, U., Iosifidis, V., Nejdl, W., Vidal, M.-E., … Staab, S. (2020). Bias in data-driven artificial intelligence systems—An introductory survey. WIREs Data Mining and Knowledge Discovery, 10(3), e1356. https://doi.org/10.1002/widm.1356
A. Valdivia, C. Hyde-Vaamonde, J. García-Marcos. Judging the algorithm: A case study on the risk assessment tool for gender-based violence implemented in the Basque country. https://arxiv.org/abs/2203.03723
--- # ¿Por dónde empezar? Libros ![h:12em ](pics/armas-destruccion-matematica.jpg) ![h:12em ](pics/AutomatingInequality.jpg) ![h:12em ](pics/book-design-justice.jpg) ![h:12em ](pics/fairmlbook.png)
Con el "pero" de lo difícil de expresar la pertenencia a grupo, es interesante [intersectionalityscore.com](https://intersectionalityscore.com/) ![bg right fit](pics/intersectionalityscore.png)
Penitenciario: "Predicción" riesgo de reincidencia: el sistema sobreestima el riesgo para afroamericanos en comparación con población blanca
# Definición formal
--- # Heurísticas para cuantificar el sesgo: ![](pics/fairness_tree.png) > Fuente https://textbook.coleridgeinitiative.org/chap-bias.html#dealing-with-bias
--- # Oportunidades de aprendizaje e investigación * Revisitar problemas desde otros puntos de vista * Mejorar entendimiento de la inteligencia artificial y la estadística * Trabajar con equipos interdisciplinares y diversos * Trabajar con colectivos