A NARRATIVA TECNOLÓGICA: DESAFIOS ÉTICOS NA ERA DOS MODELOS DE LINGUAGEM
- Mariele Santos
- 11 de abr. de 2024
- 2 min de leitura
Atualizado: 3 de ago. de 2024
Os paradigmas estão desmoronando: modelos de linguagem, como o ChatGPT, não se aproximam genuinamente da inteligência, mas há um interesse evidente por parte das Big Techs em criar essa ilusão. Por trás dessa intenção, existe um projeto de colonização e um viés desumanizador que busca moldar os usuários.
Um estratagema comum no discurso das Big Techs, atuais detentoras dos Modelos de Linguagem Generativos (GMLs) e tecnologias similares, é a utilização de meias-verdades. Essas empresas são especialistas em dissimular sua conivência com as falsidades propagadas na mídia sobre seus produtos. Embora forneçam esclarecimentos aparentemente precisos quando questionadas, essas respostas frequentemente são lacunares e evasivas.
Um exemplo notável foi a postura do Google em relação aos rumores sobre as capacidades humanas de seu primeiro protótipo de chatbot, o “LaMDa”, em 2021. Ao invés de emitir uma declaração de princípios de forma adequada, a empresa só se pronunciou após um engenheiro da equipe gerar grande repercussão ao alegar que o modelo havia adquirido senciência.
O engenheiro foi suspenso administrativamente, e a empresa alegou que a senciência ainda está “muito distante” para os robôs. Assim, a responsabilidade pela notícia falsa foi dispensada, mas os planos de “humanizar” seus produtos de IA não foram negados. O mais recente descendente do LaMDa, o Bard, já apresenta clichês pré-fabricados para contornar o assunto.

Imagem: Zoran Svilar/TNI.
Ao considerar o rápido desenvolvimento dessas tecnologias, surge a pergunta sobre os riscos envolvidos. Descartada a hipótese da superinteligência dos robôs, resta a preocupação com a redução de empregos. A substituição de atendentes e recepcionistas por assistentes virtuais já está em curso, comprometendo a qualidade dos serviços e dificultando a resolução de reclamações, pois os robôs carecem da empatia humana.
Estamos nos encaminhando para a tirania dos formulários online, gerenciados por máquinas desprovidas de compreensão, o que representa um risco significativo para a humanidade das tecnologias linguageiras. A conversa compulsória com máquinas, desencarnada e desumanizada, pode causar um impacto sem precedentes na saúde mental coletiva. Embora possamos aprender a emular a lógica mecânica para obter produtos e serviços com mais facilidade, é fundamental reconhecer que não somos máquinas, e a desumanização resultante pode ter consequências graves.
Comments