Ok, a inteligência artificial é inevitável, não é? Todo mundo usando para os mais variados fins. Eu mesmo ando revisando meus textos com a ajuda do simpático Lumo – das ferramentas gratuitas disponíveis, aquela que recomendo mais fortemente.
Entretanto, há um ponto que sempre me preocupa nos materiais que recebo e que preciso validar: como foram obtidos os dados citados, as conclusões de leitura de cenário e os insights gerados?
A busca por novas informações constitui um dos maiores usos da IA Generativa, diz a pesquisa “Nossa Vida com IA: Da inovação à aplicação” produzida por Ipsos e Google. Parece de fato um atalho interessante: você faz uma pergunta qualquer e a IA responde de forma assertiva, mesmo que esteja completamente equivocada, alucinando. Se você conhece o suficiente sobre aquele assunto pesquisado, pode achar graça e descartar a resposta. Mas será que está se fazendo o mesmo quando não se conhece o suficiente sobre o assunto da pergunta?
Meu palpite inicial é que muita alucinação está passando pelo crivo de diversos profissionais e então integrando notícias, relatórios, apresentações e afins. Quando a coisa se torna escandalosa, vira chacota. Mas o perigo mora nesses errinhos que passam abaixo do radar e nos levam a conclusões equivocadas.
Então este artigo é um esforço para tentar consertar este estrago iminente: vamos falar sobre pesquisas utilizando a IA generativa?
IA generativa tem limitações. Saiba como elas impactam suas respostas.
Comecemos explicando como a IA generativa funciona. Ela é uma máquina extremamente eficiente para calcular a probabilidade de quais palavras vêm a seguir. Em uma comparação para fins didáticos – bem simplificada, mas também usada por divulgadores científicos para alertas como este – trata‑se de algo semelhante ao recurso de sugestão de palavras do teclado do celular, que tenta adivinhar a próxima palavra para economizar toques.
Para esse cálculo, a IA se baseia em um conjunto limitado de textos e informações com os quais foi treinada. Quando o assunto já foi exaustivamente explorado e há consenso nas conclusões, há alta probabilidade de que a resposta faça sentido e esteja correta.
Já quando o tema envolve dados mais recentes, que exigiriam uma nova pesquisa na internet, surgem problemas sérios nas respostas.
É aqui que entram as nuances que profissionais levam anos para dominar: separar o joio do trigo é uma tarefa complexa. Ao pesquisar uma informação em um motor de busca, encontramos inúmeros artigos mal escritos ou de baixa qualidade nos primeiros resultados. Como avaliar o que vale e o que não vale? Baseamo‑nos na reputação do site? Na qualidade do que está escrito? E como definimos “qualidade” para ensinar à máquina?
Eventualmente, um agent pode ser bem treinado para executar parte desse trabalho, mas isso demanda tempo e recursos consideráveis – o que pode não representar economia em um processo de desk research.
Sou categórico nas recomendações aos colegas: a IA é uma ferramenta bem‑vinda em muitos processos cotidianos e repetitivos. A pesquisa, porém, não é um processo repetitivo. Não estamos falando de perguntas com respostas únicas ou óbvias; trata-se de analisar, em profundidade, cada nova informação que surge.
Isso significa que reprovo todo e qualquer uso da IA para pesquisa? Não exatamente. É possível, sim, usar a IA de maneira que ela realmente auxilie nesse processo complexo.

Quando usar a IA para fazer pesquisa?
Para extrair o melhor da máquina, penso que é interessante tirar dela a responsabilidade de caçar dados na internet. Em vez disso, a ideia é alimentar a IA exclusivamente com o material que ela deve analisar. Quando o conjunto de fontes é controlado, a chance de acertos aumenta consideravelmente.
Um exemplo do cotidiano da área de planejamento: anualmente devoramos dezenas de relatórios de tendências – páginas e mais páginas de estudos, gráficos e conclusões que, em algum momento, viram insights para apresentações. Se você disponibiliza esses documentos a um agent e o instrui a considerar apenas aquele universo de dados, as respostas tendem a ser mais próximas ao que os relatórios de fato vaticinaram.
Além disso, eu também gosto de alimentar a ferramenta com um documento de debrief, com minhas pesquisas prévias, minhas primeiras hipóteses, fontes brutas e afins.
Também adiciono um documento que tenta explicar um pouco do que é o trabalho do planejamento, o desafio que temos pela frente, o que iremos produzir ao final do processo e outras limitações à imaginação fértil que a máquina poderia ter. São prompts prévios que ajudam a direcionar o trabalho.
Idealmente, quanto menos ruído, melhor. Se houver planilhas, melhor enviar em CSV; se houver textos, arquivos TXT puro. PDFs e PPTs são aceitos, mas custam mais tempo de processamento e podem introduzir artefatos indesejados.
Mesmo com esse preparo todo, nunca aceito a resposta como verdade absoluta. É comum o robô “misturar as bolas”, combinar duas tendências distintas e criar uma terceira inexistente, ou ainda devolver a própria pergunta do briefing como se fosse uma conclusão. Manter o senso crítico não custa nada.
Por fim, estamos lidando com dados que podem ser sensíveis. Não os carregaria em nenhum serviço que não ofereça privacidade rigorosa. Para uso pessoal, como neste blog ou meus posts em redes sociais, o cuidado fica em usar o serviço que citei anteriormente (Lumo), que garante que nunca utiliza os dados fornecidos pelo usuário para treinar seus modelos. Em ambientes corporativos, no entanto, é preciso ir além:
Infraestrutura interna isolada – implantar uma ou mais LLMs dentro da rede da empresa, garantindo que nenhum dado saia do perímetro. É o tipo de solução que mais me agrada porque garante que nenhum dado irá circular sem ação expressa de alguém da empresa. É também o tipo de solução que uso corporativamente.
Política de uso clara – definir regras de ingestão, retenção e descarte de informações ao utilizar ferramentas de mercado, sempre alinhadas às políticas de privacidade do cliente (se estamos falando de realizar trabalhos em agências, consultorias etc.), tais como anonimizar dados ou deixar de fora da análise qualquer documentação sigilosa.
Dito tudo isto, sim, é um trabalhão mesmo. Mas garanto que aí sim você terá uma ferramenta útil para auxiliar no processo de pesquisa e, principalmente, na etapa posterior.
Fotos: Marten Newhall no Unsplash e Leeloo The First no Pexels.