prototipe
.
ai
Cases Agentes de IA
Como Criar Agentes de IA
Cursos
Features
Preços
Entrar
Começar
avaliação automática
Categoria: modelos e inferência
Nesta Categoria
alucinação
async inference
attribution
auto-evaluation
batch processing
bias
cadeia de pensamento
closed-source model
code generation
comparação de modelos
contagem de tokens
cost per token
custo por token
detecção de idioma
entendimento de linguagem natural
escolha de modelo
extended thinking
factual accuracy
faithfulness
foundation model
fundamentação
geração de dados estruturados
geração de resposta
groundedness
hallucination
inference
inference endpoint
inference latency
input tokens
language detection
latência
latency
limite de tokens
LLM-as-a-judge
LLM como juiz
LLM (Large Language Model)
max output tokens
model API
model-based evaluation
model bias
model cascade
model comparison
modelo
modelo de IA
modelo de linguagem
model provider
model selection
model serving
model versioning
multilingual model
multimodal
natural language generation (NLG)
natural language understanding (NLU)
open-source model
output tokens
precisão factual
processamento em lote
provedor de modelo
raciocínio
real-time inference
reasoning
reasoning tokens
response generation
resposta em streaming
resposta inventada
routing by complexity
SLM (Small Language Model)
source grounding
speech-to-text (STT)
streaming
streaming response
structured output generation
text-to-speech (TTS)
thinking budget
throughput
token
tokenization
tokenizer
velocidade de resposta
viés
vision-language model
Processo de medir a qualidade do agente de forma automatizada, usando modelos de IA ou regras programáticas para analisar respostas sem depender exclusivamente de revisão humana.