prototipe
.
ai
Cases Agentes de IA
Como Criar Agentes de IA
Cursos
Features
Preços
Entrar
Começar
taxa de acerto
Categoria: avaliação e qualidade
Nesta Categoria
A/B testing
accuracy
amostragem para revisão
answer relevancy
assertion-based evaluation
automated evaluation
avaliação humana
baseline de qualidade
benchmark
cenário de teste
champion-challenger
checklist de qualidade
code execution success rate
coerência da conversa
coherence score
conferência de saída
confidence score
conjunto de teste
containment rate
context relevancy
conversation success rate
cost per conversation
cost per query
critério de qualidade
CSAT
custo por interação
degradação de qualidade
drift detection
escalation rate
eval suite
execution accuracy
feedback loop
golden dataset
ground truth
human evaluation
KPI dashboard
KV cache
latency (P50, P95, P99)
meta de desempenho (KPI)
model degradation
multi-turn evaluation
número de turnos até resolução
offline evaluation
online evaluation
otimização de custo
performance baseline
precisão do resultado
prompt caching
RAGAS
regression testing
relevance score
relevância da resposta
response relevance
resultado esperado vs obtido
result correctness
rubrica de avaliação
satisfação do usuário (CSAT)
score de confiança
shadow mode
task completion rate
taxa de contenção
taxa de erro
taxa de escalação
taxa de resolução
teste A/B
teste de regressão
token optimization
tokens per second
toxicity score
TTFT (time to first token)
turn count
versão campeã vs desafiante
Percentual de casos de teste em que o agente produziu a resposta correta ou aceitável. É a métrica mais direta de qualidade geral e serve como termômetro rápido do estado do agente.