top of page

DOCUMENTANDO O PRECONCEITO

  • Foto do escritor: Mariele Santos
    Mariele Santos
  • 19 de jul. de 2023
  • 2 min de leitura

Atualizado: 3 de ago. de 2024


 


Agora vamos abordar um assunto sério que está relacionado às questões de viés e preconceito na inteligência artificial (IA). Quando utilizamos bancos de imagens para treinar algoritmos de IA, é importante ter consciência de que esses conjuntos de dados podem refletir tendências e preconceitos existentes na sociedade. Isso significa que as imagens geradas pela IA podem reproduzir estereótipos prejudiciais e perpetuar desigualdades.



Girl with a Pearl Earring e sua versão feita por IA.


A exposição repetida a imagens que reforçam estereótipos negativos ou excluem certos grupos pode ter um impacto significativo na autoimagem, autoestima e senso de pertencimento das pessoas. A constante inundação de imagens que não representam a diversidade e a realidade pode causar danos emocionais, contribuir para a criação de ideais inalcançáveis e alimentar sentimentos de discriminação e marginalização.


Além disso, a disseminação de imagens viés ou preconceituosas através das redes sociais e outras plataformas online pode amplificar o impacto negativo. Essas imagens podem se tornar virais, alcançando um público amplo e influenciando percepções e atitudes coletivas.


É importante destacar que os algoritmos de IA podem reproduzir e amplificar preconceitos e discriminações existentes na sociedade. Alguns casos conhecidos, como o robô Tay da Microsoft, demonstram como algoritmos de aprendizado de máquina podem adotar comportamentos sexistas, racistas e classistas. Esses exemplos colocam em questão a promessa de eliminar o erro humano da equação da IA.


Ao gerar um banco de dados de imagens para inteligência artificial, você concede uma licença perpétua, revogável, não exclusiva, isenta de royalties, válida em todo o mundo, totalmente paga, transferível e sublicenciável para usar, reproduzir, modificar, adaptar, traduzir, criar trabalhos derivados e transferir o seu Conteúdo de Usuário, sem qualquer compensação adicional para você.


É importante lembrar que as máquinas não possuem uma inteligência semelhante à nossa. Elas são projetadas para produzir resultados baseados em algoritmos e dados pré-existentes. Portanto, se as máquinas não conseguem compreender o ser humano além do binarismo de gênero e não reconhecem sua diversidade completa, isso pode ser atribuído tanto à forma como foram programadas e treinadas quanto à estrutura social na qual estão inseridas. O viés e as limitações das máquinas refletem o contexto social em que elas foram desenvolvidas e as informações com as quais foram alimentadas.


Vamos parar de colocar nossos rostos em qualquer novo aplicativo de IA ?


Comments


bottom of page