O Stability Diffusion 2.0 foi lançado com muitos novos recursos. Descubra por que os usuários questionam a remoção de imagens NSFW e estilo imitador.
Indivíduos ansiosos para Difusão estável 2.0 deve primeiro descobrir como a remoção de conteúdo adulto e artistas específicos afeta sua arte de IA. Hoje em dia, muitos indivíduos procuram a Inteligência Artificial avançada em tecnologia para trabalhar para eles. Pode ajudar a economizar muito tempo e até dinheiro.
A Stability AI lançou o Stable Diffusion 2.0 em novembro com recursos altamente solicitados. O gerador de arte AI original da plataforma tornou-se um dos softwares mais populares entre usuários e desenvolvedores. Eles são frequentemente conhecidos por trazer inovação para a indústria de arte de IA. Seus principais modelos eram o motivo pelo qual muitas pessoas esperavam ansiosamente pelos aprimoramentos do novo lançamento. A atualização veio com resolução aprimorada, modelo de difusão de profundidade para imagem, uma atualização para modelo de difusão de pintura interna e novos modelos de difusão de texto para imagem. Mas, o modelo de difusão de texto para imagem gerou uma controvérsia sobre a integridade da arte da IA.
IA de estabilidadeA atualização mais recente do Stable Diffusion veio com muitos novos recursos interessantes, mas também filtrou seu banco de dados para apaziguar os usuários preocupados com o conteúdo Not Safe For Work. Além disso, reduziu a capacidade do software de criar arte à semelhança de artistas específicos. Embora alguns possam ver isso como uma desvantagem para o aplicativo, é um crescimento significativo em termos de ética da arte da IA atualmente para muitos outros.
A ética da arte da inteligência artificial
Embora muitos adultos não tenham problemas em ver nudez e violência, muitas pessoas apontam que nem todos os adultos se sentem confortáveis com isso. Na verdade, para muitos indivíduos, pode ser um gatilho que os expõe a um trauma passado. Imagine usar o que deveria ser um gerador de arte de IA inocente apenas para precisar agendar uma sessão de terapia por causa de uma adição surpresa inadequada à arte. A preocupação mais crítica é que a IA poderia acidentalmente criar pornografia infantil. Se o banco de dados contiver crianças e imagens sexuais, o gerador pode criar conteúdo indescritível. Qualquer pessoa chateada com as mudanças do Stable Diffusion 2.0 deve se lembrar que a plataforma nunca teve a intenção de exibir conteúdo sexual ou violento em primeiro lugar. Nos Termos de Serviço do Stable Diffusion’s Dream Studio sob as Diretrizes Prompt, a plataforma proíbe o uso de material NSFW que inclua material obsceno ou sexual, bem como imagens violentas.
A mudança do Stable Diffusion para o modelo de treinamento da versão atualizada é um precedente significativo para a ética da arte da IA. Muitos usuários estão chateados porque não podem mais copiar o estilo de um determinado artista, incluindo seu nome no prompt. Além disso, torna mais difícil para os usuários recriar uma semelhança com celebridades. É uma vitória importante para os artistas que perdem para a arte da IA nos mecanismos de busca. Também é um desenvolvimento positivo para pessoas famosas cujo trabalho envolve o uso de seus rostos para promover marcas e produtos. Ainda assim, os usuários estão apontando que a saída do Stable Diffusion 1.5 é melhor do que 2.0, e é provavelmente por causa das mudanças de software. Levlsio é um usuário que foi ao Twitter para provar essa diferença de qualidade em uma comparação lado a lado de duas fotos criadas com cada versão de IA.
Existe um meio termo? O Stable Diffusion 1.0 não era ilegal, mas eles ainda tinham que responder a essas questões éticas. Por enquanto, essas mudanças são justificadas, dado o número de especialistas que falaram sobre os perigos da arte AI NSFW e artistas que foram prejudicados monetariamente pela arte AI. No entanto, a tecnologia está avançando e a IA não vai desaparecer. Cabe aos desenvolvedores, como os criadores de Difusão estávelpara encontrar uma maneira de melhorar seu software para os usuários e preservar a moralidade.
Fontes: IA de estabilidade, Nível/Twitter