• /
  • EnglishEspañol日本語한국어Português
  • EntrarComeçar agora

Esta tradução de máquina é fornecida para sua comodidade.

Caso haja alguma divergência entre a versão em inglês e a traduzida, a versão em inglês prevalece. Acesse esta página para mais informações.

Criar um problema

Integração de monitoramento de Google VertexAI

A integração da New Relic inclui uma integração para relatar seus dados do GCP Run para nossos produtos. Aqui, explicamos como ativar a integração e quais dados ela coleta.

Ativar integração

Para ativar a integração, siga os procedimentos padrão para conectar seu serviço GCP ao New Relic.

Configuração e polling

Você pode alterar a frequência de pesquisa e filtrar dados usando opções de configuração.

Informações de pesquisa padrão para a integração do GCP Run:

  • Intervalo de sondagem New Relic : 5 minutos

Encontre e use dados

Para encontrar seus dados de integração, acesse one.newrelic.com > All capabilities > Infrastructure > GCP e selecione uma integração.

Os dados são anexados aos seguintes tipos de eventos:

Entidade

Tipo de evento

Fornecedor

Endpoint

GcpVertexAiEndpointSample

GcpVertexAiEndpoint

Loja de recursos

GcpVertexAiFeaturestoreSample

GcpVertexAiFeaturestore

Loja de recurso online

GcpVertexAiFeatureOnlineStoreSample

GcpVertexAiFeatureOnlineStore

Localização

GcpVertexAiLocationSample

GcpVertexAiLocation

Índice

GcpVertexAiIndexSample

GcpVertexAiIndex

PipelineJob

GcpVertexAiPipelineJobSample

GcpVertexAiPipelineJob

Para saber mais sobre como usar seus dados, consulte Compreender e usar dados de integração.

Dados métricos

Esta integração coleta dados do GCP para VertexAI.

Dados do endpoint VertexAI

Métrica

Unidade

Descrição

prediction.online.accelerator.duty_cycle

Por cento

Fração média de tempo durante o período de amostragem anterior durante o qual o(s) acelerador(es) estavam processando ativamente.

prediction.online.accelerator.memory.bytes_used

Bytes

Quantidade de memória aceleradora alocada pela réplica do modelo implantar.

prediction.online.error_count

Contar

Número de erros de previsão online.

prediction.online.memory.bytes_used

Bytes

Quantidade de memória alocada pela réplica do modelo implantar e atualmente em uso.

prediction.online.network.received_bytes_count

Bytes

Número de bytes recebidos na rede pela réplica do modelo implantado.

prediction.online.network.sent_bytes_count

Bytes

Número de bytes enviados pela rede pela réplica do modelo implantado.

prediction.online.prediction_count

Contar

Número de previsões online.

prediction.online.prediction_latencies

Milissegundos

Latência de predição online do modelo implantar.

prediction.online.private.prediction_latencies

Milissegundos

Latência de predição online do modelo implantar privado.

prediction.online.replicas

Contar

Número de réplicas ativas utilizadas pelo modelo implantar.

prediction.online.response_count

Contar

Número de diferentes códigos de resposta de previsão online.

prediction.online.target_replicas

Contar

Número destino de réplicas ativas necessárias para o modelo implantar.

Dados do VertexAI Featurestore

Métrica

Unidade

Descrição

featurestore.cpu_load

Por cento

A carga média da CPU para um nó no armazenamento online do Featurestore.

featurestore.cpu_load_hottest_node

Por cento

A carga da CPU para o nó mais quente no armazenamento online do Featurestore.

featurestore.node_count

Contar

O número de nós para o armazenamento online do Featurestore.

featurestore.online_entities_updated

Contar

Número de entidade atualizado no armazenamento online da Featurestore.

featurestore.online_serving.latencies

Milissegundos

Latência de serviço on-line por EntityType.

featurestore.online_serving.request_bytes_count

Bytes

Tamanho da solicitação por EntityType.

featurestore.online_serving.request_count

Contar

Contagem de serviços on-line do Featurestore por EntityType.

featurestore.online_serving.response_size

Bytes

Tamanho da resposta por EntityType.

featurestore.storage.billable_processed_bytes

Bytes

Número de bytes cobrados por dados offline processados.

featurestore.storage.stored_bytes

Bytes

Bytes armazenados no Featurestore.

featurestore.streaming_write.offline_processed_count

Contar

Número de solicitações de gravação de streaming processadas para armazenamento offline.

featurestore.streaming_write.offline_write_delays

Segundos

Tempo (em segundos) desde que a API de gravação é chamada até ser gravada no armazenamento offline.

Dados VertexAI FeatureOnlineStore

Métrica

Unidade

Descrição

featureonlinestore.online_serving.request_count

Contar

Número de contagem de veiculações por FeatureView.

featureonlinestore.online_serving.serving_bytes_count

Bytes

Servindo tamanho de resposta por FeatureView.

featureonlinestore.online_serving.serving_latencies

Milissegundos

Latência de atendimento on-line pelo FeatureView.

featureonlinestore.running_sync

Milissegundos

Número de sincronizações em execução em determinado momento.

featureonlinestore.serving_data_ages

Segundos

Medida da idade dos dados de serviço em segundos.

featureonlinestore.serving_data_by_sync_time

Contar

Detalhamento dos dados do Feature Online Store por timestamp sincronizado.

featureonlinestore.storage.bigtable_cpu_load

Por cento

A carga média de CPU dos nós do Feature Online Store.

featureonlinestore.storage.bigtable_cpu_load_hottest_node

Por cento

A carga de CPU do nó mais quente no Feature Online Store.

featureonlinestore.storage.bigtable_nodes

Contar

A quantidade de nós do Feature Online Store(Bigtable).

featureonlinestore.storage.stored_bytes

Contar

Bytes armazenados no Feature Online Store.

Dados de localização da VertexAI

Métrica

Unidade

Descrição

online_prediction_requests_per_base_model

Contar

Número de solicitações por modelo base.

quota.online_prediction_requests_per_base_model.exceeded

Contar

Número de tentativas de exceder o limite da métrica de cota.

quota.online_prediction_requests_per_base_model.limit

Contar

Limite atual na métrica de cota.

quota.online_prediction_requests_per_base_model.usage

Contar

Uso atual na métrica de cota.

executing_vertexai_pipeline_jobs

Contar

Número de trabalhos de pipeline sendo executados.

executing_vertexai_pipeline_tasks

Contar

Número de tarefas de pipeline sendo executadas.

Dados do índice VertexAI

Métrica

Unidade

Descrição

matching_engine.stream_update.datapoint_count

Contar

Número de pontos de dados inseridos ou removidos com êxito.

matching_engine.stream_update.latencies

Milissegundos

A latência entre o usuário recebe um UpsertDatapointsResponse ou RemoveDatapointsResponse e essa atualização entra em vigor.

matching_engine.stream_update.request_count

Contar

Número de solicitações de atualização de stream.

Dados do trabalho do pipeline VertexAI

Métrica

Unidade

Descrição

pipelinejob.duration

Segundos

Segundos de tempo de execução do trabalho do pipeline sendo executado (da criação ao fim).

pipelinejob/task_completed_count

Contar

Número total de tarefas de pipeline concluídas.

Copyright © 2025 New Relic Inc.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.