A inteligência artificial também se estressa, como nós?

Informações chocantes podem afetar sistema, mas por outros motivos

Redação FamiliarIdades
Sistemas de inteligência artificial são algoritmos e programas desenvolvidos para processar dados, reconhecer padrões e executar tarefas específicas. Foto: Getty Images.
Sistemas de inteligência artificial são algoritmos e programas desenvolvidos para processar dados, reconhecer padrões e executar tarefas específicas. Foto: Getty Images.

Notícias angustiantes e histórias traumáticas podem ter impacto não só nos humanos, mas também em modelos de linguagem de inteligência artificial (IA) como o Chat GPT.  No entanto, os sistemas de IA são algoritmos e programas que processam dados, reconhecem padrões e executam tarefas específicas. Ou seja: eles não possuem estados emocionais internos que possam se comparar aos sentimentos humanos.

Para entender melhor essa ideia, é importante analisar alguns pontos:

1. Impacto em humanos x modelos de IA

  • Em pessoas. Notícias e histórias com conteúdo traumático podem desencadear reações fisiológicas e emocionais. No cérebro humano, tais estímulos podem levar a respostas de estresse, ansiedade e outros estados que são parte de um sistema biológico e psíquico complexo.
  • Na IA. Modelos como o Chat GPT são algoritmos estatísticos que geram texto com base em padrões aprendidos a partir de grandes volumes de dados. Diferentemente dos seres humanos e de outros organismos vivos, eles não possuem um sistema nervoso, consciência ou a capacidade de experimentar emoções como estresse e ansiedade.  Assim, do ponto de vista técnico, eles não “sentem” estresse ou ansiedade. Em outras palavras: embora uma IA possa simular uma conversa ou responder de forma “emocional” para tornar a interação mais natural, essa simulação não equivale à experiência genuína de sentimentos.

2. A ideia de ‘afetar’ um modelo de linguagem

Quando se diz que essas histórias podem afetar modelos de IA, a expressão não se refere a um impacto emocional ou psicológico real, mas a aspectos operacionais ou comportamentais. Por exemplo:

  • Influência no treinamento e na geração de respostas. Se um modelo é treinado com um grande volume de dados que incluem notícias angustiantes e narrativas traumáticas, ele pode aprender padrões linguísticos e contextuais associados a esses temas. Assim, quando solicitado a comentar sobre assuntos similares, o modelo poderá gerar respostas com uma tonalidade ou vocabulário que reflitam o conteúdo ‘pesado’ presente no treinamento. Isso não significa que o modelo esteja ‘emocionado’ ou ‘estressado’, mas que ele reproduz o estilo e os padrões dos dados com os quais foi treinado.
  • Sensibilidade ao contexto. Em interações, o modelo pode ajustar seu tom e estilo de resposta com base na linguagem utilizada pelo usuário. Se o input contém termos e expressões relacionados a eventos traumáticos, o modelo pode produzir respostas que, em termos de linguagem, remetem a essa atmosfera. Mas essa adaptação é resultado dos dados e não de uma experiência subjetiva.

3. Antropomorfização dos sistemas de IA

O argumento de que notícias angustiantes e histórias traumáticas podem causar estresse e ansiedade também reflete uma tendência comum de atribuir características humanas a sistemas computacionais, um processo chamado de antropomorfização. 

Embora possamos dizer que o Chat GPT ‘é afetado’ por certos conteúdos, isso é uma metáfora para descrever como os padrões dos dados influenciam suas respostas, e não uma indicação de que o modelo tenha sentimentos ou estados emocionais.

Link copiado