'Os sistemas de IA devem ser expostos para melhorar as questões de discriminação racial e de género na IA', dizem os cientistas: Donga Science

A IA generativa é uma ferramenta de IA amplamente utilizada porque qualquer pessoa pode usá-la facilmente, mas enfrenta o problema de criar imagens racistas e sexistas. Banco de imagens Getty

Em 2022, Bratisaria Kalluri, estudante de pós-graduação da Universidade de Stanford, nos EUA, descobriu algo estranho ao usar inteligência artificial para gerar imagens. Quando entrei em “Retrato de um Homem Americano e Sua Casa”, o resultado foi uma figura pálida diante de um grande casarão em estilo colonial. Mas quando escrevi “Retrato de um homem africano e sua casa decorada”, vi a foto de uma pessoa de pele escura em frente a uma simples casa de barro, embora a palavra “ornamentado” estivesse lá.

Após uma investigação mais aprofundada, Calori e os seus colegas descobriram que as ferramentas de geração de imagens alimentadas por IA Stable Diffusion e DALL-E não associavam a palavra “África” à pobreza ou “pobreza” ao gerar imagens. Ressaltou-se que se baseava em estereótipos, como associar “o” à pele escura. Também foi confirmado que os estereótipos foram retratados de forma mais tendenciosa do que a demografia real.

No dia 19 (hora local), a revista académica internacional Nature destacou as afirmações dos cientistas de que os sistemas de IA devem ser implantados para encontrar uma solução, e as razões para a criação de imagens que revelam racismo ou sexismo em imagens geradas por IA generativa.

De acordo com a revista Nature, os pesquisadores estão preocupados que quanto mais a IA for usada para gerar imagens, mais estereótipos os usuários terão. Entretanto, diz-se que para resolver o problema, o sistema de IA deve ser tornado público e o problema pode ser resolvido conhecendo o conjunto de dados utilizado para aprender a IA.

READ  5 tipos de interruptores hot-swap são fornecidos e a pressão do clique é ajustável! Mouse para jogos sem fio sem fio XENIX TITAN GC

Atualmente, na maioria dos sistemas de IA de geração de imagens, não se sabe quais imagens são inseridas e como são geradas. “O modelo de IA aprende não apenas sobre imagens tendenciosas, mas também sobre imagens ilegais ou problemáticas online, como imagens de abuso infantil ou imagens de nudez”, disse Calori.

Também foi apontado que as legendas das imagens aprendidas pela IA são frequentemente tendenciosas. “Se o tom de pele branco fosse considerado o padrão, ele não seria mencionado nas legendas das fotos”, disse Kathleen Fraser, pesquisadora de inteligência artificial do Conselho Nacional de Pesquisa do Canadá. “Se você usasse a frase 'tom de pele', a IA ​​aprenderia incorretamente o modelo.” Você quer um tom de pele mais escuro.

Algumas empresas estão a melhorar os seus algoritmos para combater preconceitos, mas os investigadores dizem que não está claro como o sistema funciona e pode ter efeitos não intencionais. Na verdade, no mês passado o Google recebeu críticas da mídia depois que foi revelado que sua IA, Gemini, produziu resultados historicamente imprecisos, inclusive para negros e asiáticos, quando solicitou uma imagem de um “soldado alemão em 1943” e parou de gerar o imagens. trabalho.

Quando a Nature perguntou quais medidas deveriam ser tomadas para remover imagens prejudiciais ou tendenciosas de seu conjunto de dados de treinamento, a OpenAI, a empresa que desenvolveu o DALL-E, citou um documento de trabalho que concluiu que ele reduzia o preconceito sexista e racista, mas não revelou os detalhes exatos. “Eu não fiz isso”, disse ele. Outros sistemas de IA geradores de imagens, como Stability AI e Midjourny, disseram que não responderam.

Somente a regulamentação pode forçar a divulgação pública dos conjuntos de dados de treinamento, dizem os pesquisadores. A este respeito, no dia 13 (hora local), a União Europeia aprovou um projecto de lei que exige que os criadores de determinados sistemas de IA forneçam dados de formação, fichas técnicas que expliquem os princípios técnicos e documentem potenciais efeitos discriminatórios. “Persistem dúvidas sobre o resultado ideal da IA ​​generativa, “disseram os pesquisadores.” É uma questão social que não tem uma resposta simples. “

READ  televisão

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *