Metodologia

Como lemos a evolução do score ao longo do tempo

O valor do IA Performance Index está na tendência, não no número pontual. Veja como a TIDEX lê a evolução do score ao longo dos meses.

VS
Vittor Saraiva
·15 de março de 2026·4 min de leitura

A evolução do score ao longo do tempo revela padrões que uma medição isolada nunca mostra

Um score de 5.4 num único mês não diz muita coisa. Mas 3.1 em janeiro, 4.0 em fevereiro, 5.4 em março e 5.2 em abril conta uma história: crescimento forte seguido de estabilização. Isso é radicalmente diferente de 7.0 em janeiro, 6.2 em fevereiro, 5.4 em março — que é queda consistente. O mesmo 5.4, duas narrativas opostas. A gente construiu o IA Performance Index pra ser medido repetidamente porque o valor real está na tendência, não no número pontual. Segundo a McKinsey Digital 2024, métricas acompanhadas ao longo do tempo geram decisões 3.2x mais eficazes do que métricas pontuais. No contexto de IA, onde os motores mudam rápido e a competição por visibilidade está se intensificando, entender a direção do seu score é mais importante do que saber o valor exato num dado momento.

Decomposição temporal: o que mudou e por quê

Quando o score muda entre ciclos, a gente decompõe a variação por dimensão e componente. Se o score geral caiu 0.6 ponto, o relatório mostra que, por exemplo, presença ficou estável (+0.1), qualidade subiu (+0.3) mas contexto caiu forte (-1.0). Isso permite identificar exatamente onde está o problema. A decomposição vai mais fundo: dentro de contexto, qual sub-componente caiu? Intenção comercial? Posição na resposta? Sentimento? E dentro desse sub-componente, quais prompts específicos mostraram mudança? Esse drill-down é possível porque a gente guarda todos os dados brutos de cada ciclo. Segundo o Gartner, ferramentas de analytics que permitem decomposição causal têm taxa de adoção 2.5x maior que ferramentas que só mostram números agregados. O histórico do IA Performance Index não é uma linha num gráfico — é uma pilha de evidências que conta por que a linha se moveu.

Separando mudanças reais de ruído e efeitos de modelo

Uma dificuldade real de acompanhar scores em IA ao longo do tempo: quando o score muda, a causa pode ser algo que a marca fez, algo que o concorrente fez, uma atualização do motor, ou simplesmente variação estatística. A gente usa três mecanismos pra separar esses efeitos. Primeiro, comparação com benchmark setorial — se todas as marcas do setor caíram, provavelmente é efeito do motor, não da marca. Segundo, análise de prompts mantidos vs. novos — se o score caiu nos prompts que já existiam, é mudança real; se caiu só nos prompts novos, pode ser efeito da amostragem. Terceiro, checagem de versão do modelo — a gente registra qual versão de cada motor foi usada e sinaliza quando houve atualização entre ciclos. Segundo o Stanford HAI 2024, atualizações de modelo são responsáveis por até 30% da variação em benchmarks de LLM entre trimestres. Sem esse controle, seria impossível dizer se a sua marca melhorou ou se o motor é que mudou.

Padrões temporais que a gente já identificou

Analisando centenas de medições, alguns padrões se repetem. O mais comum é o que a gente chama de "platô pós-ação": a marca implementa melhorias, o score sobe por 2-3 meses e depois estabiliza. Isso é normal — cada ação tem um teto de impacto. Pra continuar subindo, precisa de novas ações. Outro padrão é a "erosão competitiva": o score da marca fica estável, mas o benchmark setorial sobe — significando que concorrentes melhoraram e a posição relativa piorou. Tem também o "spike de modelo": uma atualização de motor causa uma variação brusca (pra cima ou pra baixo) que se normaliza no ciclo seguinte. Segundo a BrightEdge 2024, 62% das variações de ranking em SEO se normalizam em 4-6 semanas após uma atualização do Google. Em LLMs, a gente observa padrão similar — spikes de modelo raramente persistem por mais de um ciclo mensal.

Usando o histórico pra projetar cenários

O histórico do score permite algo que uma medição pontual não permite: projeção de cenários. Se a marca mantiver a trajetória atual, onde vai estar em 3 meses? Se o benchmark setorial continuar subindo no ritmo atual, quando a marca vai cruzar a mediana? Se a ação prioritária do plano for implementada, qual o impacto esperado com base em casos similares? A gente não vende projeções como certezas — elas são cenários baseados em padrões históricos. Mas são úteis pra planejamento e alocação de budget. Segundo a Gartner 2025, decisores que usam projeções baseadas em dados históricos alocam budget com 45% mais eficiência do que decisores que reagem a métricas pontuais. O histórico do IA Performance Index transforma o índice de um termômetro em uma bússola: não diz só a temperatura atual, mas indica pra onde o vento está soprando e qual direção tomar.

#metodologia#IA Performance Index

Leia também

Duvidas? Fale conosco