{"componentChunkName":"component---src-templates-blog-js","path":"/blog/4-26-como-realmente-surge-o-viés-na-ia-—-e-porque-é-tão-difícil-corrigi-lo/","result":{"data":{"site":{"siteMetadata":{"author":"Carla Vieira","image":"/images/avatar-carla-2020.jpg"}},"markdownRemark":{"id":"2e5ed07c-c11f-5a1a-b6f0-eaef26c0aa03","html":"<blockquote>\n<p>Artigo original (publicado em 04/02/2019): <a href=\"https://www.technologyreview.com/s/612876/this-is-how-ai-bias-really-happensand-why-its-so-hard-to-fix/\">https://www.technologyreview.com/s/612876/this-is-how-ai-bias-really-happensand-why-its-so-hard-to-fix/</a></p>\n</blockquote>\n<p>Nos últimos meses, documentamos como a grande maioria das aplicações de Inteligência Artificial são baseadas na categoria de algoritmos conhecidos como *Deep Learning, *e como esses algoritmos reconhecem padrões nos dados. Além disso, incluímos como essas tecnologias afetam a vida das pessoas: como podem perpetuar injustiça no recrutamento, varejo e segurança e já podem estar afetando até o sistema penal.</p>\n<p>No entanto, não basta saber que o viés existe. Se queremos corrigi-lo, precisamos entender como ele surge e quais mecanismos permitem que isso aconteça.</p>\n<h2 id=\"Como-o-vies-na-IA-acontece\" style=\"position:relative;\">Como o viés na IA acontece?<a href=\"#Como-o-vies-na-IA-acontece\" aria-label=\"Como o vies na IA acontece permalink\" class=\"anchor after\"><svg aria-hidden=\"true\" height=\"20\" version=\"1.1\" viewBox=\"0 0 16 16\" width=\"20\"><path fill-rule=\"evenodd\" d=\"M4 9h1v1H4c-1.5 0-3-1.69-3-3.5S2.55 3 4 3h4c1.45 0 3 1.69 3 3.5 0 1.41-.91 2.72-2 3.25V8.59c.58-.45 1-1.27 1-2.09C10 5.22 8.98 4 8 4H4c-.98 0-2 1.22-2 2.5S3 9 4 9zm9-3h-1v1h1c1 0 2 1.22 2 2.5S13.98 12 13 12H9c-.98 0-2-1.22-2-2.5 0-.83.42-1.64 1-2.09V6.25c-1.09.53-2 1.84-2 3.25C6 11.31 7.55 13 9 13h4c1.45 0 3-1.69 3-3.5S14.5 6 13 6z\"></path></svg></a></h2>\n<p>Nós costumamos explicar o viés da IA atribuindo a culpa a um conjunto de dados de treinamento enviesado. Mas a realidade tem mais aspectos a serem considerados: o viés pode surgir muito antes dos dados serem coletados e em outros estágios do processo de <em>Deep Learning</em>. Para discutirmos isso, focaremos em 3 principais estágios:</p>\n<h3>Definição do problema</h3>\n<p>A primeira coisa que cientistas da computação fazem quando constroem um modelo de *Deep learning *é decidir qual o objetivo da construção do modelo. Uma empresa de cartão de crédito, por exemplo, pode buscar predizer se um cliente é ou não elegível a receber crédito. Credibilidade é um conceito complexo e para traduzirmos esse conceito para algo computável, a empresa deve decidir se quer maximizar sua margem de lucro ou maximizar a quantidade de empréstimos que são pagos. A partir disso, pode-se definir a credibilidade dentro do contexto do objetivo definido.</p>\n<p>O problema é que <em>“essas decisões são tomadas por diversas razões do negócio além de justiça ou discriminação”</em>, explica Solon Barocas, um professor na Cornell University especialista em justiça dentro de Machine Learning. Se o algoritmo descobrir que dar empréstimos de risco (*subprime loan) *pode ser um caminho para maximizar o lucro, isso pode acabar criando um comportamento predatório que não era a intenção da empresa.</p>\n<h3><strong><em>Coleta dos dados</em></strong></h3>\n<p>O viés pode aparecer de duas formas nos dados de treinamento:</p>\n<ol>\n<li>os dados coletados não são uma boa representação da realidade</li>\n<li>os dados coletados refletem preconceitos existentes</li>\n</ol>\n<p>O primeiro caso pode ocorrer, por exemplo, se um algoritmo de *Deep Learning *é treinado com mais fotos de pessoas brancas do que de pessoas negras. Nesse caso, o sistema de reconhecimento facial seria, inevitavelmente, pior em reconhecer rostos negros.</p>\n<p>O segundo caso trata-se sobre o que aconteceu quando a Amazon descobriu que sua ferramenta de recrutamento estava penalizando candidatas mulheres com relação aos candidatos homens. Justamente porque o sistema foi treinado com históricos anteriores de contratação, que favoreciam candidatos homens ao invés de mulheres.</p>\n<h3><strong><em>Preparação dos dados</em></strong></h3>\n<p>Por último, é possível introduzir o viés durante a etapa de preparação dos dados que envolve selecionar quais atributos/variáveis o algoritmo deve considerar. (Não confunda essa etapa com a etapa de “Definição do problema”. Você pode usar as mesmas variáveis para treinar um modelo para diferentes objetivos ou usar diferentes variáveis para treinar um modelo para o mesmo objetivo).</p>\n<p>Considerando a situação anterior, sobre modelar uma análise de crédito, poderíamos considerar a idade do cliente, renda e quantidade de empréstimos pagos.</p>\n<p>No caso da ferramenta de recrutamento da Amazon, poderiam ser considerados o gênero do candidato, nível de educação e anos de experiência. Isto é o que as pessoas chamam de “arte” do* Deep Learning: *escolher quais atributos considerar ou ignorar e influenciar diretamente na acurácia de predição do seu modelo. Mas, enquanto, o impacto dos atributos sobre a acurácia é fácil de ser medido; o impacto sobre o viés do modelo não é.</p>\n<h2 id=\"Por-que-e-dificil-consertar-o-vies-na-IA\" style=\"position:relative;\">Por que é difícil consertar o viés na IA?<a href=\"#Por-que-e-dificil-consertar-o-vies-na-IA\" aria-label=\"Por que e dificil consertar o vies na IA permalink\" class=\"anchor after\"><svg aria-hidden=\"true\" height=\"20\" version=\"1.1\" viewBox=\"0 0 16 16\" width=\"20\"><path fill-rule=\"evenodd\" d=\"M4 9h1v1H4c-1.5 0-3-1.69-3-3.5S2.55 3 4 3h4c1.45 0 3 1.69 3 3.5 0 1.41-.91 2.72-2 3.25V8.59c.58-.45 1-1.27 1-2.09C10 5.22 8.98 4 8 4H4c-.98 0-2 1.22-2 2.5S3 9 4 9zm9-3h-1v1h1c1 0 2 1.22 2 2.5S13.98 12 13 12H9c-.98 0-2-1.22-2-2.5 0-.83.42-1.64 1-2.09V6.25c-1.09.53-2 1.84-2 3.25C6 11.31 7.55 13 9 13h4c1.45 0 3-1.69 3-3.5S14.5 6 13 6z\"></path></svg></a></h2>\n<p>Dado todas as observações anteriores, alguns dos desafios para reduzir o bias podem já estar claros para você. Abaixo, destacamos os 4 principais:</p>\n<h3><strong><em>Unknown unknowns</em></strong></h3>\n<p>A introdução do viés nem sempre é óbvia durante a construção do modelo já que você pode não notar os impactos dos seus dados e escolhas desde o início.</p>\n<p>Mesmo que o impacto seja notado, é difícil identificar em que momento o viés foi introduzido e descobrir como retirá-lo do modelo. No caso da Amazon, quando os engenheiros descobriram que a ferramenta estava penalizando candidatas mulheres, eles a reprogramaram para ignorar palavras com gênero explícito como “*women’s”. *Após essa alteração, descobriu-se que o sistema ainda estava considerando palavras com gênero implícito — verbos que eram altamente correlacionados a homens e não a mulheres, como “executed” e “captured” — e utilizando essa informação para tomar decisões.</p>\n<h3><strong><em>Processos imperfeitos</em></strong></h3>\n<p>Muitos dos processos e etapas de <em>Deep Learning</em> não são projetadas para detectar viés. Modelos de* Deep Learning* são testados de acordo com sua performance antes de serem publicados, criando o que poderia ser uma ótima oportunidade para encontrar o viés. Mas, na prática, os testes geralmente são assim: cientistas dividem aleatoriamente os dados em 2 conjuntos: 1 conjunto de treinamento e 1 conjunto de validação. Isso significa que os dados utilizados para testar a performance do modelo tem o mesmo viés que os dados utilizados para treiná-lo anteriormente. Portanto, ele irá falhar ao tentar indicar resultados enviesados.</p>\n<h3><strong><em>Ausência de contexto social</em></strong></h3>\n<p>De maneira semelhante, a forma como cientistas da computação são ensinados a definir problemas, muitas vezes, não é a melhor abordagem para problemas sociais.</p>\n<p>Por exemplo, em um jornal, Andrew Selbst, um phd na <em>Data &#x26; Society Research Institute</em>, identificou o que ele chama de armadilha da portabilidade (“<em>portability trap”). *Na área de computação, é considerado uma boa prática projetar um sistema que pode ser utilizado para realizar diferentes tarefas em diferentes contextos. *“Mas o que isso realmente faz é ignorar todo um contexto social”</em>, diz Selbst.</p>\n<p><em>“Você não pode criar um sistema projetado para Utah e aplicá-lo em Kentucky porque diferentes comunidades tem diferentes visões de justiça. Ou você não pode ter um sistema utilizado para justiça criminal e aplicá-lo para recrutamento. O que pensamos sobre justiça em cada um desses contextos é totalmente diferente.”</em></p>\n<h3><strong><em>A definição de justiça</em></strong></h3>\n<p>Apesar de tudo isso, não é muito claro como a ausência de viés pode parecer. Esse problema não está só presente na ciência da computação — essa questão tem uma longa história de debates na filosofia, nas ciências sociais e na lei. A diferença é que na computação, temos que definir o conceito de justiça em termos matemáticos, como equilibrar as taxas de falsos positivos e falsos negativos de um sistema de predição. Mas, como pesquisadores descobriram, existem diferentes definições matemáticas de justiça que são também mutuamente exclusivas.</p>\n<p>A justiça significa que a mesma proporção de pessoas negras e brancas deveriam ter um alto grau de risco de serem maus pagadores? Ou que o mesmo nível de risco deveria ter o mesmo resultado independente da raça? É impossível garantir que as duas definições são mutuamente verdadeiras (<a href=\"https://www.washingtonpost.com/news/monkey-cage/wp/2016/10/17/can-an-algorithm-be-racist-our-analysis-is-more-cautious-than-propublicas/?utm_term=.2276d78de3c1&#x26;noredirect=on\">esse artigo</a> entre em mais profundidade sobre o assunto); logo, em algum momento você terá que escolher uma das definições como verdadeira.</p>\n<p>Enquanto que em outras áreas essa decisão é entendida como algo que pode mudar ao longo do tempo, o campo da computação entende que isso deveria ser algo a ser consertado.</p>\n<p>“Ao consertar uma resposta, você está resolvendo um problema que parece muito diferente de como a sociedade pensa sobre ele”, diz Selbst.</p>\n<h3>Para onde vamos a partir daqui…</h3>\n<p>Imagino que assim como eu, você já deve estar sentindo-se perdido em meio a tantas informações sobre os problemas do viés da Inteligência Artificial. Mas, felizmente, muitos pesquisadores de IA estão trabalhando duro para resolver esse problema sob diferentes abordagens: algoritmos que ajudam a detectar/reduzir viés nos dados de treinamento ou reduzir o viés do modelo independente da qualidade dos dados; discutindo diferentes versões de justiça e assim por diante.</p>\n<blockquote>\n<p>“Consertar a discriminação em algoritmos não é algo que pode ser facilmente resolvido. É um processo contínuo, assim como a discriminação em qualquer espectro da sociedade”. (Selbst)</p>\n</blockquote>\n<p>Este artigo foi escrito <a href=\"https://www.technologyreview.com/profile/karen-hao/\">Karen Hao</a> e traduzido para o português por <a href=\"https://twitter.com/carlaprvieira\">Carla Vieira</a>. Se você tiver alguma sugestão de artigo sobre Inteligência Artificial e quer me ajudar a democratizar o conhecimento sobre o assunto pode entrar em contato comigo pelo Twitter.</p>","fields":{"slug":"blog/4-26-como-realmente-surge-o-viés-na-ia-—-e-porque-é-tão-difícil-corrigi-lo/"},"frontmatter":{"date":"26 de abril de 2019","description":"Nós costumamos explicar o viés da IA atribuindo a culpa a um conjunto de dados de treinamento enviesado. Mas a realidade tem mais aspectos a serem considerados.","title":"Como realmente surge o viés na IA — e porque é tão difícil corrigi-lo","tags":["Inteligência Artificial","vieses","traduções"],"categories":["Tecnologia","Inteligência Artificial"],"thumbnail":{"id":"68c2944f-7d44-55c2-97bd-3ae5f8e92e79","publicURL":"/static/d17f6b99c26e81b17669b75d461374f2/1-jurtdjsaby48bnle4wm4cg.png"}},"timeToRead":6}},"pageContext":{"slug":"blog/4-26-como-realmente-surge-o-viés-na-ia-—-e-porque-é-tão-difícil-corrigi-lo/","previous":{"fields":{"slug":"blog/9-26-vieses-e-a-importância-de-sempre-analisar-o-cenário-completo/"},"frontmatter":{"title":"Vieses e a importância de sempre analisar o cenário completo","date":"14 abr, 2019"}},"next":{"fields":{"slug":"blog/9-26-unindo-tecnologia-e-educação-para-empoderar-garotas-na-fundação-casa/"},"frontmatter":{"title":"Unindo tecnologia e educação para empoderar garotas na Fundação Casa","date":"04 jun, 2020"}},"language":"pt","intl":{"language":"pt","languages":["en","pt"],"messages":{"greeting":"Olá, eu sou a Carla","headline":"engenheira de software, criadora de conteúdo e organizadora de comunidade","cta":"Conheça meu canal no Youtube","home":"Início","about":"Sobre mim","contact":"Contato","projects":"Projetos","biography":"Informações de Biografia e fotos","events":"Próximos eventos","name":"Nome","subject":"Assunto","message":"Mensagem","submit":"Enviar","speaking":"Palestras","page":"Página","of":"de","previous":"Anterior","next":"Próxima"},"routed":false,"originalPath":"/blog/4-26-como-realmente-surge-o-viés-na-ia-—-e-porque-é-tão-difícil-corrigi-lo/","redirect":false,"defaultLanguage":"pt"}}},"staticQueryHashes":["2432066201","32046230","4051767494","560207136"]}