O resultado é ao mesmo tempo promissor e assustador.
A pesquisa demonstrou que a partir da entrevista dá para criar uma réplica com IA que prevê 85% do comportamento das pessoas em algumas situações, o que abre um novo caminho para simulações que funcionem como um laboratório para testar intervenções e teorias nos campos da economia, sociologia e ciência política.
Apesar do potencial de trazer novas abordagens para experimentos e estudos científicos, saber que dá para replicar o comportamento de cada pessoa individualmente abre espaço para preocupações sobre ética, privacidade, impostorismo e muito mais.
Este estudo circulou amplamente na mídia internacional, mas antes de tratarmos dos desafios que temos pela frente, vamos entender como o experimento foi feito para que possamos reconhecer suas potencialidades e limitações.
Inicialmente, os pesquisadores recrutaram mais de 1.000 pessoas como uma amostra da população americana, respeitando critérios de idade, gênero, raça, entre outros.
Em seguida, os participantes passaram por uma entrevista por voz de 2 horas com uma IA customizada para essa função. Os assuntos variavam da história de vida até a visão sobre os problemas sociais atuais.
A transcrição detalhada da entrevista era então combinada com o poder de manipulação linguística do GPT-4o.
A estratégia adotada pelos pesquisadores foi simples, mas eficiente para uma prova de conceito. Em vez de treinar um agente do zero, cada vez que a réplica recebia uma consulta, o sistema combinava no prompt a questão com a transcrição da entrevista, pedindo ao chatbot para imitar a pessoa para responder.
Para avaliar se o comportamento da réplica era parecido com o da pessoa, os pesquisadores utilizaram diferentes instrumentos: o General Social Survey (informações demográficas e opiniões sobre diferentes assuntos), o Big Five Personality Inventory (sobre traços de personalidade) e cinco jogos econômicos.
Tanto os humanos como as réplicas respondiam aos mesmos instrumentos, que depois eram comparados pelos pesquisadores.
Os resultados demonstram que a réplica criada por IA tem um ótimo desempenho, superior a um agente construído baseado apenas em dados demográficos.
No entanto, vale reforçar que esse resultado está ancorado em testes específicos, o que é uma limitação do experimento, já que subjetividade humana é muito mais ampla e diversa.
É importante explicar também que os agentes criados no contexto desta pesquisa focam em simulações e são diferentes dos agentes que estão começando a dominar o mercado de tecnologia (assunto que expliquei em outra coluna). Estes últimos são focados em ações, não apenas em conversas.
Ainda assim, essa pesquisa abre um espaço de incontáveis possibilidades.
Mesmo com uma abordagem limitada de treinamento, os pesquisadores conseguiram criar réplicas digitais com resultados interessantes.
E, se uma IA pode prever o comportamento de pessoas reais, então podemos usá-la para testar uma infinidade de coisas, desde a aceitação de um novo produto às consequências de uma política pública.
Mas nem tudo é só coisa boa.
Se por um lado esse tipo de uso pode impulsionar a pesquisa, por outro traz questionamentos. A privacidade é um deles.
Escrevi uma coluna contando o quanto o ChatGPT sabe sobre nós a partir de nossas conversas e interações. Isso será em breve o suficiente para a OpenAI criar uma réplica tão eficiente quanto o demonstrado nesta pesquisa?
A discussão também entra em uma outra dimensão que tenho ficado preocupado: o impostorismo.
A combinação de avatares com agentes de IA estão impulsionando o desenvolvimento de réplicas de humanos cada vez mais convincentes.
Talvez um futuro inevitável seja aquele em que qualquer pessoa possa criar facilmente, e sem permissão, a réplica de outra.
Como vamos lidar com esse amanhã? Quais boas práticas e regulações precisamos começar a discutir hoje?
Opinião
Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.
** Este texto não reflete, necessariamente, a opinião do UOL.