Índice
LLMs compreendem e podem ser aprimorados por estímulos emocionais
Submetido em 14/07/2023 (v1), e revisado por último dia 20/10/2023 (essa versão, v5) o artigo “Large Language Models Understand and Can Be Enhanced by Emotional Stimuli”, explora a extremamente interessante interseção entre inteligência emocional e modelos avançados de inteligência artificial, especificamente os Grandes Modelos de Linguagem (LLMs). Os autores investigam se os LLMs podem compreender estímulos emocionais psicológicos e se esses estímulos podem aprimorar suas habilidades de resolução de problemas.
O estudo é um potencial marco na pesquisa de IA, desafiando a noção de que a inteligência artificial é puramente lógica, “apenas um LLM”, e desprovida de qualquer emoção. Ao integrar o que podemos entender por “inteligência emocional” aos modelos, cada vez mais sofisticados e sensíveis, podemos estar à beira de uma nova era de interações mais ricas e humanizadas com a tecnologia.
A pesquisa sem dúvida abre portas e possibilidades para futuras investigações sobre como a inteligência emocional pode ser incorporada em outras áreas da IA. Temos uma jornada fascinante pela frente.
Afinal, como falei antes, se as máquinas podem aprender a sentir, e principalmente, nós entendemos e respondemos às essas emoções, quais são os limites (da realidade) do que podem aprender a fazer?

A potencial abertura para novas avenidas na interação humano-IA-humano.
Os autores conduziram experimentos com modelos como Flan-T5-Large, Vicuna, Llama 2, BLOOM, ChatGPT e GPT-4, demonstrando que os LLMs podem, de fato, captar nuances emocionais. A introdução de “EmotionPrompt” – um prompt original combinado com estímulos emocionais – resultou em melhorias significativas de desempenho, evidenciando a influência positiva da inteligência emocional na IA.
O estudo também envolveu uma avaliação humana, onde participantes julgaram a qualidade das respostas geradas pelos modelos. Os resultados foram claros: os prompts emocionais elevaram a performance das tarefas gerativas em termos de precisão, verdade e responsabilidade.
Essa pesquisa não apenas reforça a compreensão de que os LLMs possuem uma forma do que entendemos por inteligência emocional, mas também sugere que essa capacidade pode ser estrategicamente utilizada para melhorar a interação entre humanos e máquinas. As implicações são vastas, potencialmente influenciando desde a educação até a saúde, ao promover uma comunicação mais eficaz e empática.

Aplicações e prática
As implicações são potencialmente significativas para o campo do processamento de linguagem natural.
O artigo sugere que a incorporação de estímulos emocionais em grandes modelos de linguagem (LLMs) pode levar a um melhor desempenho em tarefas de processamento de linguagem natural. Isso pode ter aplicações práticas em vários campos, como análise de sentimentos, chatbots e tradução de idiomas — o tipo de ‘produto’ com mais contato com o público.
Tudo isso é extremamente delicado e potencialmente problemático. Recentemente (28/10/2023), o Sam Altman disse que a “IA está aprendendo ‘persuasão sobre-humana’”.
Com a nova ferramenta criada (EmotionPrompt) e todo esse conceito, será possível cada vez mais gerar estímulos emocionais para realçar o conteúdo emocional do texto. O que pode ser usado para vários tipos de texto, propaganda, publicidade, como postagens em mídias sociais, notícias e avaliações de clientes.
Além disso, é um potencial caminho no Futuro do Design, Games, Realidade Virtual e a ‘Avatarização’ através de LLMs mais avançados, que possam compreender e responder melhor ao conteúdo emocional.
Algumas aplicações práticas:
- Melhorar a análise de sentimentos: O artigo sugere que a incorporação de estímulos emocionais em grandes modelos de linguagem (LLMs) pode levar a um melhor desempenho na análise de sentimentos. Isso pode ser aplicado em vários campos, como monitoramento de mídias sociais, análise de feedback de clientes e pesquisa de mercado.
- Aprimorando os chatbots: Os chatbots estão se tornando cada vez mais populares no atendimento e suporte ao cliente. As descobertas do artigo sugerem que a incorporação de estímulos emocionais em chatbots pode levar a uma comunicação mais eficaz com os clientes, o que pode melhorar a satisfação e a fidelidade do cliente.
- Melhorar a tradução linguística: O artigo sugere que a incorporação de estímulos emocionais nos LLMs pode levar a um melhor desempenho na tradução linguística. Isso pode ser aplicado em vários campos, como negócios internacionais, diplomacia e turismo.
- Desenvolvendo LLMs mais avançados: As descobertas do artigo podem ser usadas para desenvolver LLMs mais avançados que possam compreender e responder melhor ao conteúdo emocional. Isso pode levar a um processamento de linguagem natural mais preciso e eficaz, que pode ter aplicações práticas em vários campos.
Garbage in, garbage out
Esse estudo reforça uma opinião pessoal, de que hoje há basicamente (não só) um problema de UX (experiência do usuário) no ChatGPT e outras “IAs”.
A pessoa é 90% responsável pelo que sai da ferramenta. Isso resulta em muitas questões, dúvidas e críticas, que na verdade já são solúveis através de prompts e/ou esse tipo de condução (como nesse estudo). A hora que isso for resolvido…
Garbage in, garbage out (GIGO) é uma expressão em inglês atribuída ao técnico da IBM George Fuechsel que significa, literalmente, “lixo entra, lixo sai“. Na ciência da computação e nas áreas de tecnologia da informação ela faz referência ao fato de que computadores operam utilizando processos de transformação lógica e, portanto, são capazes de processar sem questionar todos os tipos de dados, mesmo que eles não façam sentido algum para a solução do problema desejado (lixo entra) e, como consequência, geralmente produzem saída indesejada e sem sentido (lixo sai).
De uma forma geral, entende-se que mesmo que um computador esteja corretamente programado para processar uma massa de dados, erros introduzidos nele podem ser assimilados e até amplificados. Com isso, para o perfeito funcionamento de um sistema computacional é necessário que não somente suas funcionalidades estejam corretamente programadas, mas que os dados de entrada também sejam confiáveis.

Principais Pontos e Resultados
- Os experimentos automáticos em 45 tarefas demonstraram que os LLMs têm uma compreensão da inteligência emocional e que seu desempenho pode ser melhorado com prompts emocionais (denominados “EmotionPrompt”).
- O EmotionPrompt levou a uma melhoria de desempenho relativa de 8,00% na Indução de Instrução e 115% no BIG-Bench.
- Um estudo humano com 106 participantes avaliou a qualidade das tarefas gerativas usando prompts padrão e emocionais, resultando em uma melhoria média de 10,9% em termos de desempenho, veracidade e responsabilidade.

Métodos
- Os autores projetaram 11 estímulos emocionais baseados em teorias psicológicas estabelecidas, como auto-monitoramento, Teoria Cognitiva Social e Teoria da Regulação Emocional Cognitiva.
- Eles realizaram experimentos padronizados em tarefas determinísticas e gerativas, representando uma variedade de cenários desafiadores.
- Para tarefas determinísticas, foram utilizadas métricas padrão, enquanto para tarefas gerativas, foi realizado um estudo humano para avaliação qualitativa.
Discussão
- O artigo discute por que o EmotionPrompt funciona para LLMs, analisando os efeitos dos estímulos emocionais nos resultados finais por meio da atenção à entrada.
- Estudos de ablação foram realizados para explorar os fatores que influenciam a eficácia do EmotionPrompt, como tamanhos de modelo e temperatura.
- A combinação de vários prompts emocionais pode aumentar ainda mais os resultados.
Conclusões e Contribuições
- O estudo conclui que os LLMs não apenas compreendem, mas também podem ser aprimorados por estímulos emocionais.
- Os resultados mostram uma melhoria significativa trazida pelo EmotionPrompt no desempenho das tarefas, veracidade e informatividade.
- O artigo oferece uma análise aprofundada sobre as razões por trás do EmotionPrompt, com implicações potenciais para as disciplinas de IA e ciências sociais.
Obrigado pela leitura!
Quer falar mais sobre esse assunto comigo? Me procura lá no Linkedin. Se você tem algo para acrescentar, questionar e expandir esse assunto, envie seu texto — vamos pensar e escrever em coletividad(e)!