Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Atualizado em : May 19, 2020
NÃO ENTROU NA EDIÇÃO ATUAL
Este blip não está na edição atual do Radar. Se esteve em uma das últimas edições, é provável que ainda seja relevante. Se o blip for mais antigo, pode não ser mais relevante e nossa avaliação pode ser diferente hoje. Infelizmente, não conseguimos revisar continuamente todos os blips de edições anteriores do Radar. Saiba mais
May 2020
Trial ? Vale a pena ir atrás. É importante entender como desenvolver essa capacidade. As empresas devem experimentar esta tecnologia em um projeto que possa lidar com o risco.

No ano passado, vimos uma mudança no interesse em torno de aprendizado de máquina e de redes neurais profundas em particular. Até agora, o desenvolvimento de ferramentas e técnicas foi impulsionado pelo entusiasmo com as notáveis capacidades desses modelos. Atualmente, porém, há uma preocupação crescente de que esses modelos possam causar danos não-intencionais. Por exemplo, um modelo pode ser treinado para tomar decisões de crédito inadvertidamente, simplesmente excluindo pessoas candidatas desfavorecidas. Felizmente, estamos vendo um interesse crescente em testes de viés ético , que ajudarão a apontar decisões potencialmente prejudiciais. Ferramentas como lime, AI Fairness 360 ou What-If Tool podem ajudar a descobrir imprecisões resultantes de grupos sub-representados em dados de treinamento, enquanto ferramentas de visualização como Google Facets ou Facets Dive podem ser usadas para descobrir subgrupos em um corpus de dados de treinamento. Utilizamos lime (local interpretable model-agnostic explanations, ou explicações independentes de modelo interpretáveis localmente), além desta técnica, para entender as previsões de qualquer classificador de aprendizado de máquina e o que os classificadores (ou modelos) estão fazendo.

Nov 2019
Assess ? Vale a pena explorar com o objetivo de compreender como isso afetará sua empresa.

No último ano, temos visto uma mudança no interesse pelo aprendizado de máquina e redes neurais profundas, em particular. Até agora, o desenvolvimento de ferramentas e técnicas tem sido guiado pela empolgação gerada pelas capacidades notáveis desses modelos. Atualmente, contudo, há uma preocupação crescente de que esses modelos possam causar prejuízo não-intencional. Por exemplo, um modelo pode ser treinado para tomar decisões de crédito lucrativas simplesmente excluindo pessoas candidatas desfavorecidas. Felizmente, estamos vendo um interesse crescente em testes de viés ético , que ajudarão a descobrir decisões potencialmente prejudiciais. Ferramentas, tais como lime, AI Fairness 360 ou What-If podem ajudar a descobrir imprecisões que resultam de grupos sub-representados em dados de treinamento, enquanto ferramentas de visualização como Google Facets ou Facets Dive podem ser usadas para descobrir subgrupos dentro de um conjunto de dados de treinamento. Contudo, esse é um campo em desenvolvimento e esperamos que os padrões e práticas específicas para testes de viés ético surjam com o tempo.

Publicado : Nov 20, 2019

Baixe o PDF

 

 

 

English | Español | Português | 中文

Inscreva-se para receber o boletim informativo Technology Radar

 

 

Seja assinante

 

 

Visite nosso arquivo para acessar os volumes anteriores