Com o avanço da tecnologia em inteligência artificial (IA), o bot – programa de computador que usa IA para conversar com os usuários – está cada vez mais sofisticado, personalizado e simpático. Segundo um estudo do Imperial College London, no Reino Unido, muitas pessoas acabam tratando esses “robôs” como seres sociais por causa disso.
Afinal, ao interagir, eles respondem questões, fornecem dados e realizam tarefas. Como o sistema geralmente recebe orientações prévias e aprende com os diálogos, tendem sempre a “imitar” as características da linguagem humana. De quebra, acabam expressando certas qualidades com as quais as pessoas se identificam.
Solidariedade: humanos x IA
O estudo observou a interação de 244 pessoas de 18 a 62 anos com um bot de IA através de um jogo virtual de arremesso de bola chamado “Cyberball”. Os voluntários desenvolveram simpatia e tentaram proteger o bot quando perceberam que ele iria ser excluído do jogo.
“Esta é uma visão única de como os humanos interagem com a IA, com implicações importantes para o design e para a nossa psicologia”, diz a pesquisadora Jianan Zhou, autora principal do artigo.
A tendência natural de proteger o outro que pode ser excluído do jogo é comum em interações entre seres humanos. No entanto, os participantes agiram da mesma maneira com um robô, reconhecido por todos como um agente virtual. E, surpreendentemente, essa inclinação foi mais forte nos jogadores mais velhos.
Segundo os pesquisadores, isso deve ser levado em consideração na hora de se projetar bots de IA, pois a recomendação é justamente evitar que bots pareçam excessivamente humanos.
Cuidado com o ser humano
O envolvimento das pessoas com os agentes virtuais de IA em tarefas colaborativas aumenta na medida que os bots se tornam cada vez mais populares. E isso pode fazer com que os humanos intuitivamente os transformem em membros sociais reais.
É vantajoso utilizar bots para a colaboração no trabalho. No entanto, preocupa a possibilidade de que eles substituam relacionamentos humanos ou sejam consultores de saúde física ou mental, por exemplo.
“Ao evitar projetar agentes excessivamente humanos, os desenvolvedores podem ajudar as pessoas a distinguir entre interação virtual e real. Eles também podem adaptar seu design para faixas etárias específicas, levando em conta como diferentes características humanas afetam nossa percepção”, explicou Jianan.
Os pesquisadores alertam ainda que o Cyberball pode não representar como os humanos interagem em cenários da vida real. No jogo, a interação ocorre pela escrita ou fala, com chatbots ou assistentes de voz. Isso pode ter entrado em conflito com as expectativas de alguns, levantado sentimentos de estranheza e, portanto, influenciando as reações durante o experimento.