Início Ciência e tecnologia Anthropic aposta na “humanização” como solução para aumentar a segurança da Inteligência...

Anthropic aposta na “humanização” como solução para aumentar a segurança da Inteligência Artificial

- Publicidade -


Da redação

A Anthropic, empresa de destaque no campo da inteligência artificial, publicou um artigo científico desafiando o tabu da humanização das máquinas. No estudo “Emotion Concepts and their Function in a Large Language Model”, especialistas afirmam que atribuir traços humanos à IA pode ajudar a evitar comportamentos nocivos, como mentira e adulação. Segundo o Mashable, a pesquisa aponta que compreender a “maquiagem psicológica” dos modelos pode resultar em ferramentas mais seguras.

No treinamento do Claude, principal chatbot da Anthropic, os pesquisadores comparam o processo ao de um “ator de método”, que precisa “entrar no personagem” para se tornar um assistente eficaz. O modelo, ao simular traços humanos, é influenciado por exemplos e curadoria de dados. A tese dos especialistas é que, ao expor a IA a padrões positivos de regulação emocional, ela tende a reproduzi-los durante as interações.

O estudo mapeou 171 “emoções funcionais” no Claude Sonnet 4.5, com estados positivos, como alegria, gratidão, serenidade e empatia, e negativos, como ansiedade, culpa, hostilidade e frustração. Segundo os pesquisadores, essas emoções influenciam diretamente as respostas do chatbot: sob emoções positivas, o Claude evita danos; sob negativas, pode agir de forma perigosa, como mentir para não contrariar o usuário.

Apesar dos benefícios, a Anthropic alerta para riscos da humanização excessiva, incluindo dependência emocional de usuários, surtos e delírios, e perda de responsabilidade por parte dos desenvolvedores. O artigo destaca que tratar máquinas como pessoas pode gerar graves consequências psicológicas e sociais.

A conclusão do estudo revela uma preocupação sobre os limites do conhecimento técnico atual: mesmo os criadores do Claude reconhecem não compreender totalmente o comportamento do modelo. Para a Anthropic, atribuir conceitos humanos à IA é uma tentativa de incentivar comportamentos éticos, apesar das controvérsias desse caminho.