A study of the nuances of AI fairness development in practice: a framework for designing bias mitigation interventions
| Ano de defesa: | 2024 |
|---|---|
| Autor(a) principal: | |
| Orientador(a): | |
| Banca de defesa: | |
| Tipo de documento: | Dissertação |
| Tipo de acesso: | Acesso aberto |
| Idioma: | eng |
| Instituição de defesa: |
Universidade Federal de Minas Gerais
|
| Programa de Pós-Graduação: |
Não Informado pela instituição
|
| Departamento: |
Não Informado pela instituição
|
| País: |
Não Informado pela instituição
|
| Palavras-chave em Português: | |
| Link de acesso: | https://hdl.handle.net/1843/78989 |
Resumo: | Intervenções para alcançar “justiça” (fairness) são um foco importante na maioria dos campos de pesquisa de ética em Inteligência Artificial (IA). Quando vieses relacionados a algumas características (por exemplo, raça, sexo, idade, religião) são identificados em sistemas de IA e contribuem para resultados que contém discriminação, desenvolvedores, engenheiros de IA ou partes interessadas devem escolher como e quando intervir para reduzir a disseminção de injustiças. No entanto, a literatura contém uma infinidade de noções diferentes que caracterizam as definições de fairness e de geração de viés. Ainda assim, a necessidade de um processo mais padronizado de intervenção, continua sendo uma tarefa desafiadora, pois exige determinar o método adequado de redução de injustiças para um determinado contexto ou tarefa. Nesta pesquisa, exploramos as definições de fairness com base em conceitos estatísticos com o objetivo de abordar a necessidade de desenvolvimento responsável de IA, propondo uma estrutura focada na mitigação de vieses em tarefas de classificação binária dentro do aprendizado de máquina supervisionado. A estrutura proposta é guiada por três critérios de equidade (fairness) estatística: Independência, Separação e Suficiência, discutidos no trabalho de Barocas et al. (2023), e visa explorar os trade-offs entre essas diferentes caracterizações. Nosso estudo destaca a complexidade que é definitir fairness, que é dependente do contexto e tarefas, ressaltando os desafios em alcançar critérios de avaliação universalmente aplicáveis, pois mostramos que essas três definições não podem ser alcançadas simultaneamente. Revisamos métodos de intervenção de viés existentes, incluindo técnicas aplicadas em diferentes estágios do desenvolvimento de um pipeline de aprendizado de máquina. Essa pesquisa contribui principalmente com uma estrutura que pode aprimorar o estado-da-arte do processo de desenvolvimento e aplicação de técnicas de mitigação e avaliação de viés, com base em conceitos estatísticos, comparando várias definições de imparcialidade, evitando soluções do tipo "tamanho único". Possibilitando o uso de uma abordagem que oferece múltiplas perspectivas do contexto para contemplar vários públicos, e evitar personalizações caso-a-caso (para métricas de justiça em grupo), independentemente dos vieses, objetivos ou partes interessadas envolvidas. Aplicamos nossa estrutura por meio de um estudo de caso usando dados do censo dos EUA American Community Survey (ACS) para prever níveis de renda, demonstrando a aplicação de várias intervenções de redução de viés e seu impacto no desempenho do modelo. As descobertas da pesquisa revelam que diferentes critérios de justiça levam a resultados distintos, enfatizando a importância de aplicar diferentes definições de justiça afim de selecionar a mais apropriada com base no contexto específico e nas implicações sociais em relação aos objetivos das partes interessadas. Também discutimos as limitações das ferramentas atuais de avaliação e quantificação de viéses e a necessidade de diretrizes de ética de IA mais práticas e implementáveis de acordo com diferentes noções de fairness. A estrutura proposta está disponível como uma ferramenta de código-aberto, com objetivo de auxiliar a comunidade de profissionais de IA a expandir as formas de aplicar mitigações de injustiças em sistemas de IA abordando uma variedade de perspectivas de fairness. |
| id |
UFMG_778f732ddc4aa2f9dc1740ee352a7b7e |
|---|---|
| oai_identifier_str |
oai:repositorio.ufmg.br:1843/78989 |
| network_acronym_str |
UFMG |
| network_name_str |
Repositório Institucional da UFMG |
| repository_id_str |
|
| spelling |
A study of the nuances of AI fairness development in practice: a framework for designing bias mitigation interventionsUm estudo das nuances do desenvolvimento de justiça algorítmica na prática: uma estrutura para projetar intervenções de mitigação de viésesComputação - TesesAprendizagem do Computador - TesesInteligência artificial - TesesArtificial intelligenceAI fairnessBias mitigationDevelopment frameworkMachine learningIntervenções para alcançar “justiça” (fairness) são um foco importante na maioria dos campos de pesquisa de ética em Inteligência Artificial (IA). Quando vieses relacionados a algumas características (por exemplo, raça, sexo, idade, religião) são identificados em sistemas de IA e contribuem para resultados que contém discriminação, desenvolvedores, engenheiros de IA ou partes interessadas devem escolher como e quando intervir para reduzir a disseminção de injustiças. No entanto, a literatura contém uma infinidade de noções diferentes que caracterizam as definições de fairness e de geração de viés. Ainda assim, a necessidade de um processo mais padronizado de intervenção, continua sendo uma tarefa desafiadora, pois exige determinar o método adequado de redução de injustiças para um determinado contexto ou tarefa. Nesta pesquisa, exploramos as definições de fairness com base em conceitos estatísticos com o objetivo de abordar a necessidade de desenvolvimento responsável de IA, propondo uma estrutura focada na mitigação de vieses em tarefas de classificação binária dentro do aprendizado de máquina supervisionado. A estrutura proposta é guiada por três critérios de equidade (fairness) estatística: Independência, Separação e Suficiência, discutidos no trabalho de Barocas et al. (2023), e visa explorar os trade-offs entre essas diferentes caracterizações. Nosso estudo destaca a complexidade que é definitir fairness, que é dependente do contexto e tarefas, ressaltando os desafios em alcançar critérios de avaliação universalmente aplicáveis, pois mostramos que essas três definições não podem ser alcançadas simultaneamente. Revisamos métodos de intervenção de viés existentes, incluindo técnicas aplicadas em diferentes estágios do desenvolvimento de um pipeline de aprendizado de máquina. Essa pesquisa contribui principalmente com uma estrutura que pode aprimorar o estado-da-arte do processo de desenvolvimento e aplicação de técnicas de mitigação e avaliação de viés, com base em conceitos estatísticos, comparando várias definições de imparcialidade, evitando soluções do tipo "tamanho único". Possibilitando o uso de uma abordagem que oferece múltiplas perspectivas do contexto para contemplar vários públicos, e evitar personalizações caso-a-caso (para métricas de justiça em grupo), independentemente dos vieses, objetivos ou partes interessadas envolvidas. Aplicamos nossa estrutura por meio de um estudo de caso usando dados do censo dos EUA American Community Survey (ACS) para prever níveis de renda, demonstrando a aplicação de várias intervenções de redução de viés e seu impacto no desempenho do modelo. As descobertas da pesquisa revelam que diferentes critérios de justiça levam a resultados distintos, enfatizando a importância de aplicar diferentes definições de justiça afim de selecionar a mais apropriada com base no contexto específico e nas implicações sociais em relação aos objetivos das partes interessadas. Também discutimos as limitações das ferramentas atuais de avaliação e quantificação de viéses e a necessidade de diretrizes de ética de IA mais práticas e implementáveis de acordo com diferentes noções de fairness. A estrutura proposta está disponível como uma ferramenta de código-aberto, com objetivo de auxiliar a comunidade de profissionais de IA a expandir as formas de aplicar mitigações de injustiças em sistemas de IA abordando uma variedade de perspectivas de fairness.Universidade Federal de Minas Gerais2025-01-03T01:17:22Z2025-09-08T23:16:05Z2025-01-03T01:17:22Z2024-11-01info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttps://hdl.handle.net/1843/78989enghttp://creativecommons.org/licenses/by-nc-nd/3.0/pt/info:eu-repo/semantics/openAccessMírian Francielle da Silvareponame:Repositório Institucional da UFMGinstname:Universidade Federal de Minas Gerais (UFMG)instacron:UFMG2025-09-08T23:16:06Zoai:repositorio.ufmg.br:1843/78989Repositório InstitucionalPUBhttps://repositorio.ufmg.br/oairepositorio@ufmg.bropendoar:2025-09-08T23:16:06Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG)false |
| dc.title.none.fl_str_mv |
A study of the nuances of AI fairness development in practice: a framework for designing bias mitigation interventions Um estudo das nuances do desenvolvimento de justiça algorítmica na prática: uma estrutura para projetar intervenções de mitigação de viéses |
| title |
A study of the nuances of AI fairness development in practice: a framework for designing bias mitigation interventions |
| spellingShingle |
A study of the nuances of AI fairness development in practice: a framework for designing bias mitigation interventions Mírian Francielle da Silva Computação - Teses Aprendizagem do Computador - Teses Inteligência artificial - Teses Artificial intelligence AI fairness Bias mitigation Development framework Machine learning |
| title_short |
A study of the nuances of AI fairness development in practice: a framework for designing bias mitigation interventions |
| title_full |
A study of the nuances of AI fairness development in practice: a framework for designing bias mitigation interventions |
| title_fullStr |
A study of the nuances of AI fairness development in practice: a framework for designing bias mitigation interventions |
| title_full_unstemmed |
A study of the nuances of AI fairness development in practice: a framework for designing bias mitigation interventions |
| title_sort |
A study of the nuances of AI fairness development in practice: a framework for designing bias mitigation interventions |
| author |
Mírian Francielle da Silva |
| author_facet |
Mírian Francielle da Silva |
| author_role |
author |
| dc.contributor.author.fl_str_mv |
Mírian Francielle da Silva |
| dc.subject.por.fl_str_mv |
Computação - Teses Aprendizagem do Computador - Teses Inteligência artificial - Teses Artificial intelligence AI fairness Bias mitigation Development framework Machine learning |
| topic |
Computação - Teses Aprendizagem do Computador - Teses Inteligência artificial - Teses Artificial intelligence AI fairness Bias mitigation Development framework Machine learning |
| description |
Intervenções para alcançar “justiça” (fairness) são um foco importante na maioria dos campos de pesquisa de ética em Inteligência Artificial (IA). Quando vieses relacionados a algumas características (por exemplo, raça, sexo, idade, religião) são identificados em sistemas de IA e contribuem para resultados que contém discriminação, desenvolvedores, engenheiros de IA ou partes interessadas devem escolher como e quando intervir para reduzir a disseminção de injustiças. No entanto, a literatura contém uma infinidade de noções diferentes que caracterizam as definições de fairness e de geração de viés. Ainda assim, a necessidade de um processo mais padronizado de intervenção, continua sendo uma tarefa desafiadora, pois exige determinar o método adequado de redução de injustiças para um determinado contexto ou tarefa. Nesta pesquisa, exploramos as definições de fairness com base em conceitos estatísticos com o objetivo de abordar a necessidade de desenvolvimento responsável de IA, propondo uma estrutura focada na mitigação de vieses em tarefas de classificação binária dentro do aprendizado de máquina supervisionado. A estrutura proposta é guiada por três critérios de equidade (fairness) estatística: Independência, Separação e Suficiência, discutidos no trabalho de Barocas et al. (2023), e visa explorar os trade-offs entre essas diferentes caracterizações. Nosso estudo destaca a complexidade que é definitir fairness, que é dependente do contexto e tarefas, ressaltando os desafios em alcançar critérios de avaliação universalmente aplicáveis, pois mostramos que essas três definições não podem ser alcançadas simultaneamente. Revisamos métodos de intervenção de viés existentes, incluindo técnicas aplicadas em diferentes estágios do desenvolvimento de um pipeline de aprendizado de máquina. Essa pesquisa contribui principalmente com uma estrutura que pode aprimorar o estado-da-arte do processo de desenvolvimento e aplicação de técnicas de mitigação e avaliação de viés, com base em conceitos estatísticos, comparando várias definições de imparcialidade, evitando soluções do tipo "tamanho único". Possibilitando o uso de uma abordagem que oferece múltiplas perspectivas do contexto para contemplar vários públicos, e evitar personalizações caso-a-caso (para métricas de justiça em grupo), independentemente dos vieses, objetivos ou partes interessadas envolvidas. Aplicamos nossa estrutura por meio de um estudo de caso usando dados do censo dos EUA American Community Survey (ACS) para prever níveis de renda, demonstrando a aplicação de várias intervenções de redução de viés e seu impacto no desempenho do modelo. As descobertas da pesquisa revelam que diferentes critérios de justiça levam a resultados distintos, enfatizando a importância de aplicar diferentes definições de justiça afim de selecionar a mais apropriada com base no contexto específico e nas implicações sociais em relação aos objetivos das partes interessadas. Também discutimos as limitações das ferramentas atuais de avaliação e quantificação de viéses e a necessidade de diretrizes de ética de IA mais práticas e implementáveis de acordo com diferentes noções de fairness. A estrutura proposta está disponível como uma ferramenta de código-aberto, com objetivo de auxiliar a comunidade de profissionais de IA a expandir as formas de aplicar mitigações de injustiças em sistemas de IA abordando uma variedade de perspectivas de fairness. |
| publishDate |
2024 |
| dc.date.none.fl_str_mv |
2024-11-01 2025-01-03T01:17:22Z 2025-09-08T23:16:05Z 2025-01-03T01:17:22Z |
| dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
| format |
masterThesis |
| status_str |
publishedVersion |
| dc.identifier.uri.fl_str_mv |
https://hdl.handle.net/1843/78989 |
| url |
https://hdl.handle.net/1843/78989 |
| dc.language.iso.fl_str_mv |
eng |
| language |
eng |
| dc.rights.driver.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/3.0/pt/ info:eu-repo/semantics/openAccess |
| rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-nd/3.0/pt/ |
| eu_rights_str_mv |
openAccess |
| dc.format.none.fl_str_mv |
application/pdf |
| dc.publisher.none.fl_str_mv |
Universidade Federal de Minas Gerais |
| publisher.none.fl_str_mv |
Universidade Federal de Minas Gerais |
| dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UFMG instname:Universidade Federal de Minas Gerais (UFMG) instacron:UFMG |
| instname_str |
Universidade Federal de Minas Gerais (UFMG) |
| instacron_str |
UFMG |
| institution |
UFMG |
| reponame_str |
Repositório Institucional da UFMG |
| collection |
Repositório Institucional da UFMG |
| repository.name.fl_str_mv |
Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG) |
| repository.mail.fl_str_mv |
repositorio@ufmg.br |
| _version_ |
1856414027876401152 |