Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Publicado : Oct 26, 2022
NÃO ENTROU NA EDIÇÃO ATUAL
Este blip não está na edição atual do Radar. Se esteve em uma das últimas edições, é provável que ainda seja relevante. Se o blip for mais antigo, pode não ser mais relevante e nossa avaliação pode ser diferente hoje. Infelizmente, não conseguimos revisar continuamente todos os blips de edições anteriores do Radar. Saiba mais
Oct 2022
Assess ? Vale a pena explorar com o objetivo de compreender como isso afetará sua empresa.

O DALL·E da OpenAI chamou a atenção de todo mundo com sua capacidade de criar imagens a partir de prompts de texto. Agora, o Stable Diffusion oferece o mesmo recurso, mas, fundamentalmente, é de código aberto. Qualquer pessoa com acesso a uma placa de vídeo poderosa pode experimentar o modelo e qualquer pessoa com recursos de computação suficientes pode recriar o modelo por conta própria. Os resultados são surpreendentes, mas também levantam questões significativas. Por exemplo, o modelo é treinado em pares imagem-texto obtidos por meio de uma ampla coleta da internet e, portanto, refletirá preconceitos sociais, o que significa que possivelmente irá produzir conteúdo ilegal, perturbador ou, no mínimo, indesejável. Stable Diffusion agora inclui um classificador de segurança baseado em IA. No entanto, dada a sua natureza de código aberto, as pessoas podem desabilitar o classificador. Finalmente, artistas notaram que, com as dicas certas, o modelo é capaz de imitar seu estilo artístico. Isso levanta questões sobre as implicações éticas e legais de uma IA capaz de imitar artistas.

Baixe o PDF

 

 

 

English | Español | Português | 中文

Inscreva-se para receber o boletim informativo Technology Radar

 

 

Seja assinante

 

 

Visite nosso arquivo para acessar os volumes anteriores