As variáveis ambientais permitem ajustar a configuração do gerenciador de tarefas Sintético para atender às suas necessidades ambientais e funcionais específicas.
As variáveis são fornecidas na inicialização usando o argumento -e, --env .
A tabela a seguir mostra todas as variáveis de ambiente suportadas pelo gerenciador de tarefas Sintético. PRIVATE_LOCATION_KEY é obrigatório e todas as outras variáveis são opcionais.
Nome
Descrição
PRIVATE_LOCATION_KEY
Required. chave de localização privada, conforme encontrada na lista entidade privada de localização.
DOCKER_API_VERSION
Formato: "vX.Y" versão da API a ser usada com o serviço Docker fornecido.
Padrão: v1.35.
DOCKER_HOST
Aponta o gerenciador de tarefas Sintético para um determinado DOCKER_HOST. Se ausente, o valor padrão é /var/run/docker.sock.
HORDE_API_ENDPOINT
Para contas baseadas nos EUA, o endpoint é: https://synthetics-horde.nr-data.net.
Para contas baseadas na UE , o endpoint é: https://synthetics-horde.eu01.nr-data.net/
Certifique-se de que seu gerenciador de tarefas Sintético possa se conectar ao endpoint apropriado para atender seu monitor.
DOCKER_REGISTRY
O domínio Docker Registry onde as imagens de tempo de execução estão hospedadas. Use isto para substituir docker.io como padrão.
DOCKER_REPOSITORY
O docker repositório ou organização onde as imagens de tempo de execução estão hospedadas. Use isto para substituir newrelic como padrão.
HORDE_API_PROXY_HOST
Host do servidor proxy usado para comunicação da Horda. Formato: "localhost".
HORDE_API_PROXY_PORT
Porta do servidor proxy usada para comunicação da Horda. Formato: 8888.
HORDE_API_PROXY_USERNAME
Nome de usuário do servidor proxy usado para comunicação da Horda. Formato: "username".
HORDE_API_PROXY_PW
Senha do servidor proxy usada para comunicação da Horda. Formato: "password".
HORDE_API_PROXY_ACCEPT_SELF_SIGNED_CERT
Aceita certificados proxy autoassinados para a conexão do servidor proxy usada para comunicação do Horde? Valores aceitáveis: true
CHECK_TIMEOUT
A quantidade máxima de segundos que as verificações do seu monitor podem ser executadas. Este valor deve ser um número inteiro entre 0 segundos (excluído) e 900 segundos (incluído) (por exemplo, de 1 segundo a 15 minutos).
Padrão: 180 segundos
LOG_LEVEL
Padrão: INFO.
Opções adicionais: WARN, ERROR, DEBUG
HEAVYWEIGHT_WORKERS
O número de trabalhos pesados simultâneos (navegador/navegador com script e API com script) que podem ser executados ao mesmo tempo.
Padrão: CPUs disponíveis - 1.
DESIRED_RUNTIMES
Uma matriz que pode ser usada para executar imagens de tempo de execução específicas. Formato: ['newrelic/Sintético-ping-runtime:latest','newrelic/Sintético-node-API-runtime:latest','newrelic/Sintético-node-navegador-runtime:latest']
Padrão: todos os tempos de execução mais recentes.
VSE_PASSPHRASE
Se definido, ativa verified script execution e usa esse valor como passphrase.
USER_DEFINED_VARIABLES
Um conjunto hospedado localmente de pares de valores principais definidos pelo usuário.
ENABLE_WASM
Se definido, habilita o webassembly para o tempo de execução do navegador do nó. Para usar o webassembly, a versão mínima do seu gerenciador de tarefas Sintético deve ser release-367 ou superior e a versão do tempo de execução do navegador do nó deve ser 2.3.21 ou superior.
As variáveis são fornecidas na inicialização usando o argumento -e, --env .
A tabela a seguir exibe todas as variáveis de ambiente que o gerenciador de tarefas Sintéticos suporta. PRIVATE_LOCATION_KEY é obrigatório e todas as outras variáveis são opcionais. Para executar o gerenciador de tarefas Sintéticos em um ambiente Podman, a versão mínima deve ser release-418 ou superior.
Nome
Descrição
PRIVATE_LOCATION_KEY
Required. chave de localização privada, conforme encontrada na lista entidade privada de localização.
HORDE_API_ENDPOINT
Para contas baseadas nos EUA, o endpoint é: https://synthetics-horde.nr-data.net.
Para contas baseadas na UE , o endpoint é: https://synthetics-horde.eu01.nr-data.net/
Certifique-se de que seu gerenciador de tarefas Sintético possa se conectar ao endpoint apropriado para atender seu monitor.
PODMAN_API_SERVICE_HOST
A entrada do host adicionada ao pod criado onde o SJM será executado. Use isto para substituir podman.service como padrão.
PODMAN_API_SERVICE_PORT
A porta na qual o serviço Podman LibPod RESTful API está sendo executado na instância. Use isto para substituir 8000 como padrão.
PODMAN_API_VERSION
A versão específica da API RESTful do Podman LibPod que está sendo usada. Use isto para substituir v5.0.0 como padrão.
PODMAN_POD_NAME
O nome do pod no qual o contêiner SJM é executado. Use isto para substituir SYNTHETICS como padrão.
DOCKER_REGISTRY
O domínio Docker Registry onde as imagens de tempo de execução estão hospedadas. Use isto para substituir docker.io como padrão.
DOCKER_REPOSITORY
O docker repositório ou organização onde as imagens de tempo de execução estão hospedadas. Use isto para substituir newrelic como padrão.
HORDE_API_PROXY_HOST
Host do servidor proxy usado para comunicação da Horda. Formato: "localhost".
HORDE_API_PROXY_PORT
Porta do servidor proxy usada para comunicação da Horda. Formato: 8888.
HORDE_API_PROXY_USERNAME
Nome de usuário do servidor proxy usado para comunicação da Horda. Formato: "username".
HORDE_API_PROXY_PW
Senha do servidor proxy usada para comunicação da Horda. Formato: "password".
HORDE_API_PROXY_ACCEPT_SELF_SIGNED_CERT
Aceita certificados proxy autoassinados para a conexão do servidor proxy usada para comunicação do Horde? Valores aceitáveis: true
CHECK_TIMEOUT
A quantidade máxima de segundos que as verificações do seu monitor podem ser executadas. Este valor deve ser um número inteiro entre 0 segundos (excluído) e 900 segundos (incluído) (por exemplo, de 1 segundo a 15 minutos).
Padrão: 180 segundos
LOG_LEVEL
Padrão: INFO.
Opções adicionais: WARN, ERROR, DEBUG
HEAVYWEIGHT_WORKERS
O número de trabalhos pesados simultâneos (navegador/navegador com script e API com script) que podem ser executados ao mesmo tempo.
Padrão: CPUs disponíveis - 1.
DESIRED_RUNTIMES
Uma matriz que pode ser usada para executar imagens de tempo de execução específicas. Formato: ['newrelic/Sintético-ping-runtime:latest','newrelic/Sintético-node-API-runtime:latest','newrelic/Sintético-node-navegador-runtime:latest']
Padrão: todos os tempos de execução mais recentes.
VSE_PASSPHRASE
Se definido, ativa verified script execution e usa esse valor como passphrase.
USER_DEFINED_VARIABLES
Um conjunto hospedado localmente de pares de valores principais definidos pelo usuário.
ENABLE_WASM
Se definido, habilita o webassembly para o tempo de execução do navegador do nó. Para usar o webassembly, a versão mínima do seu gerenciador de tarefas Sintético deve ser release-367 ou superior e a versão do tempo de execução do navegador do nó deve ser 2.3.21 ou superior.
As variáveis são fornecidas na inicialização usando o argumento --set .
A lista a seguir mostra todas as variáveis de ambiente suportadas pelo gerenciador de tarefas Sintético. synthetics.privateLocationKey é obrigatório e todas as outras variáveis são opcionais.
Uma série de configurações avançadas adicionais estão disponíveis e totalmente documentadas em nosso README do gráfico do Helm
Nome
Descrição
synthetics.privateLocationKey
Required if synthetics.privateLocationKeySecretName is not set. localização privada chave da localização privada, conforme encontrado na página localização privada.
synthetics.privateLocationKeySecretName
Required if synthetics.privateLocationKey is not set. Nome do segredo do Kubernetes que contém a chave privateLocationKey, que contém a chave de autenticação associada ao seu Sintético localização privada.
imagePullSecrets
O nome do objeto secreto usado para extrair uma imagem de um registro de contêiner especificado.
fullnameOverride
Substituição de nome usada para sua implantação, substituindo o padrão.
appVersionOverride
Versão de lançamento do Sintético-job-manager para usar em vez da versão especificada em chart.yml.
synthetics.logLevel
Padrão: INFO.
Opções adicionais: WARN, ERROR
synthetics.hordeApiEndpoint
Para contas baseadas nos EUA, o endpoint é: https://synthetics-horde.nr-data.net.
Para contas baseadas na UE , o endpoint é: https://synthetics-horde.eu01.nr-data.net/
Certifique-se de que seu gerenciador de tarefas Sintético possa se conectar ao endpoint apropriado para atender seu monitor.
synthetics.minionDockerRunnerRegistryEndpoint
O registro e organização Docker onde a imagem do minion Runner está hospedada. Use isto para substituir quay.io/newrelic como padrão (por exemplo, docker.io/newrelic)
synthetics.vsePassphrase
Se definido, ele ativa verified script execution e usa esse valor como passphrase.
synthetics.vsePassphraseSecretName
Se definido, permite a execução verificada do script e usa esse valor para recuperar a senha de um segredo do Kubernetes com uma chave chamada vsePassphrase.
synthetics.enableWasm
Se definido, habilita o webassembly para o tempo de execução do navegador do nó. Para usar o webassembly, a versão mínima do seu gerenciador de tarefas Sintético deve ser release-367 ou superior e a versão do tempo de execução do navegador do nó deve ser 2.3.21 ou superior.
synthetics.apiProxyHost
Servidor proxy usado para comunicação da Horda. Formato: "host".
synthetics.apiProxyPort
Porta do servidor proxy usada para comunicação da Horda. Formato: port.
synthetics.hordeApiProxySelfSignedCert
Aceite certificados autoassinados ao usar um servidor proxy para comunicação do Horde. Valores aceitáveis: true.
synthetics.hordeApiProxyUsername
Nome de usuário do servidor proxy para comunicação da Horda. Formatar: "username"
synthetics.hordeApiProxyPw
Senha do servidor proxy para comunicação da Horda. Formato: "password".
synthetics.userDefinedVariables.userDefinedJson
Uma string JSON de variáveis definidas pelo usuário. O usuário pode acessar essas variáveis em seu script. Formato: '{"key":"value","key2":"value2"}'.
synthetics.userDefinedVariables.userDefinedFile
Um caminho local para o usuário para um arquivo JSON contendo variáveis definidas pelo usuário. Isso é transmitido por meio de --set-file e não pode ser definido no arquivo Valores.
synthetics.userDefinedVariables.userDefinedPath
Um caminho no PersistentVolume fornecido pelo usuário para o arquivo user_defined_variables.json. O usuário deverá fornecer um PersistentVolume ou PersistentVolumeClaim se esta variável for preenchida.
synthetics.persistence.existingClaimName
Se estiver montando um volume, o usuário poderá fornecer um nome para um PersistentVolumeClaim que já existe no cluster. Pressupõe a existência de um PersistentVolume correspondente.
synthetics.persistence.existingVolumeName
Se estiver montando um volume e não fornecer um PersistentVolumeClaim, o usuário deverá fornecer, no mínimo, um nome PersistentVolume. Helm irá gerar um PersistentVolumeClaim.
synthetics.persistence.storageClass
O nome do StorageClass para o PersistentVolumeClaim gerado. Isso deve corresponder ao StorageClassName no PV existente. Caso contrário, o Kubernetes usará a classe de armazenamento padrão, se presente.
synthetics.persistence.size
O tamanho do volume do PersistentVolumeClaim gerado. Formato: 10Gi. 2Gi padrão.
global.checkTimeout
A quantidade máxima de segundos que as verificações do seu monitor podem ser executadas. Este valor deve ser um número inteiro entre 0 segundos (excluído) e 900 segundos (incluído) (por exemplo, de 1 segundo a 15 minutos).
Padrão: 180 segundos
image.repository
O contêiner a ser puxado.
Padrão: docker.io/newrelic/synthetics-job-runner
image.pullPolicy
A política de puxar.
Padrão: IfNotPresent
podSecurityContext
Configure um contexto de segurança customizado para o pod Sintético-job-manager.
ping-runtime.enabled
Se o tempo de execução do ping persistente deve ou não ser implantado. Isso pode ser desativado se você não usar o monitor de ping.
Padrão: true
ping-runtime.replicaCount
O número de contêineres de tempo de execução de ping a serem implantados. Aumente o replicaCount para dimensionar a implantação com base nas suas necessidades de monitoramento de ping.
Padrão: 1
ping-runtime.image.repository
A imagem do contêiner a ser extraída para o tempo de execução do ping.
A política pull para o contêiner de tempo de execução de ping.
Padrão: IfNotPresent
node-api-runtime.enabled
Se o tempo de execução da API Node.js deve ou não ser implantado. Isso pode ser desativado se você não usar o monitor de API com script.
Padrão: true
node-api-runtime.parallelism
O número de ambientes de execução da API Node.js CronJobs a serem implantados. O número máximo de trabalhos simultâneos da API Node.js que serão executados a qualquer momento. Detalhes adicionais.
Padrão: 1
node-api-runtime.completions
O número de ambientes de execução da API Node.js CronJobs a serem concluídos por minuto. Aumentar esta configuração juntamente com o paralelismo para melhorar as taxas de transferência. Isto deve ser aumentado sempre que o paralelismo for aumentado e as conclusões devem sempre ser pelo menos maiores ou iguais ao paralelismo. . Aumente essa configuração se você observar períodos sem trabalhos de tempo de execução de API em execução. Detalhes adicionais.
Padrão: 6
node-api-runtime.image.repository
A imagem do contêiner a ser extraída para o ambiente de execução da API Node.js.
A política pull para o contêiner de tempo de execução da API Node.js.
Padrão: IfNotPresent
node-browser-runtime.enabled
Se o tempo de execução do navegador Node.js deve ou não ser implantado. Isso pode ser desativado se você não usar o script com simples ou monitor do navegador.
Padrão: true
node-browser-runtime.parallelism
O número de tempos de execução do navegador Chrome CronJobs a serem implantados. O número máximo de jobs simultâneos do navegador Chrome que serão executados a qualquer momento. Detalhes adicionais.
Padrão: 1
node-browser-runtime.completions
O número de tempos de execução do navegador Chrome CronJobs a serem concluídos por minuto. Aumentar esta configuração juntamente com o paralelismo para melhorar as taxas de transferência. Isto deve ser aumentado sempre que o paralelismo for aumentado e as conclusões devem sempre ser pelo menos maiores ou iguais ao paralelismo. Aumente essa configuração se você notar períodos de tempo sem tarefas de tempo de execução do navegador em execução. Detalhes adicionais.
Padrão: 6
node-browser-runtime.image.repository
A imagem do contêiner a ser extraída para o tempo de execução do navegador Node.js.
A política pull para o contêiner de tempo de execução do navegador Node.js.
Padrão: IfNotPresent
As variáveis são fornecidas na inicialização usando o argumento --set .
A lista a seguir mostra todas as variáveis de ambiente suportadas pelo gerenciador de tarefas Sintético. synthetics.privateLocationKey é obrigatório e todas as outras variáveis são opcionais.
Uma série de configurações avançadas adicionais estão disponíveis e totalmente documentadas em nosso README do gráfico do Helm
Nome
Descrição
synthetics.privateLocationKey
Required. localização privada key, conforme encontrado na lista localização privada entidade.
imagePullSecrets
O nome do objeto secreto usado para extrair uma imagem de um registro de contêiner especificado.
fullnameOverride
Substituição de nome usada para sua implantação, substituindo o padrão.
appVersionOverride
Versão de lançamento do Sintético-job-manager para usar em vez da versão especificada em chart.yml.
synthetics.logLevel
Padrão: INFO.
Opções adicionais: WARN, ERROR
synthetics.hordeApiEndpoint
Para contas baseadas nos EUA, o endpoint é: https://synthetics-horde.nr-data.net.
Para contas baseadas na UE , o endpoint é: https://synthetics-horde.eu01.nr-data.net/
Certifique-se de que seu gerenciador de tarefas Sintético possa se conectar ao endpoint apropriado para atender seu monitor.
synthetics.vsePassphrase
Se definido, ele ativa verified script execution e usa esse valor como passphrase.
synthetics.vsePassphraseSecretName
Se definido, permite a execução verificada do script e usa esse valor para recuperar a senha de um segredo do Kubernetes com uma chave chamada vsePassphrase.
synthetics.enableWasm
Se definido, habilita o webassembly para o tempo de execução do navegador do nó. Para usar o webassembly, a versão mínima do seu gerenciador de tarefas Sintético deve ser release-367 ou superior e a versão do tempo de execução do navegador do nó deve ser 2.3.21 ou superior.
synthetics.apiProxyHost
Servidor proxy usado para comunicação da Horda. Formato: "host".
synthetics.apiProxyPort
Porta do servidor proxy usada para comunicação da Horda. Formato: port.
synthetics.hordeApiProxySelfSignedCert
Aceite certificados autoassinados ao usar um servidor proxy para comunicação do Horde. Valores aceitáveis: true.
synthetics.hordeApiProxyUsername
Nome de usuário do servidor proxy para comunicação da Horda. Formatar: "username"
synthetics.hordeApiProxyPw
Senha do servidor proxy para comunicação da Horda. Formato: "password".
synthetics.userDefinedVariables.userDefinedJson
Uma string JSON de variáveis definidas pelo usuário. O usuário pode acessar essas variáveis em seu script. Formato: '{"key":"value","key2":"value2"}'.
synthetics.userDefinedVariables.userDefinedFile
Um caminho local para o usuário para um arquivo JSON contendo variáveis definidas pelo usuário. Isso é transmitido por meio de --set-file e não pode ser definido no arquivo Valores.
synthetics.userDefinedVariables.userDefinedPath
Um caminho fornecido pelo usuário PersistentVolume para o arquivo user_defined_variables.json . O usuário deve fornecer PersistentVolume ou PersistentVolumeClaim se esta variável for preenchida.
global.persistence.existingClaimName
Ao montar um volume, o usuário pode fornecer um nome para um PersistentVolumeClaim que já existe no cluster. Presume a existência de um PersistentVolume correspondente.
global.persistence.existingVolumeName
Se estiver montando um volume e não fornecer um PersistentVolumeClaim, o usuário deverá fornecer no mínimo um nome PersistentVolume . O Helm irá gerar um PersistentVolumeClaim.
global.persistence.storageClass
O nome do StorageClass para o PersistentVolumeClaim gerado. Isso deve corresponder ao StorageClassName no PV existente. Caso não haja provedores, o Kubernetes usará a classe de armazenamento padrão, se presente.
global.persistence.size
O tamanho do volume para o PersistentVolumeClaim gerado. Formato: 10Gi. Padrão 2Gi.
global.checkTimeout
A quantidade máxima de segundos que as verificações do seu monitor podem ser executadas. Este valor deve ser um número inteiro entre 0 segundos (excluído) e 900 segundos (incluído) (por exemplo, de 1 segundo a 15 minutos).
Padrão: 180 segundos
image.repository
O contêiner a ser puxado.
Padrão: docker.io/newrelic/synthetics-job-runner
image.pullPolicy
A política de puxar.
Padrão: IfNotPresent
podSecurityContext
Defina um contexto de segurança personalizado para o pod synthetics-job-manager .
ping-runtime.enabled
Se o tempo de execução do ping persistente deve ou não ser implantado. Isso pode ser desativado se você não usar o monitor de ping.
Padrão: true
ping-runtime.replicaCount
O número de contêineres de tempo de execução de ping a serem implantados. Aumente o replicaCount para dimensionar a implantação com base nas suas necessidades de monitoramento de ping.
Padrão: 1
ping-runtime.image.repository
A imagem do contêiner a ser extraída para o tempo de execução do ping.
A política pull para o contêiner de tempo de execução de ping.
Padrão: IfNotPresent
node-api-runtime.enabled
Se o tempo de execução da API Node.js deve ou não ser implantado. Isso pode ser desativado se você não usar o monitor de API com script.
Padrão: true
node-api-runtime.parallelism
O número de ambientes de execução da API Node.js CronJobs a serem implantados. O número máximo de trabalhos simultâneos da API Node.js que serão executados a qualquer momento. Detalhes adicionais.
Padrão: 1
node-api-runtime.completions
O número de ambientes de execução da API Node.js CronJobs a serem concluídos por minuto. Aumentar esta configuração juntamente com o paralelismo para melhorar as taxas de transferência. Isto deve ser aumentado sempre que o paralelismo for aumentado e as conclusões devem sempre ser pelo menos maiores ou iguais ao paralelismo. . Aumente essa configuração se você observar períodos sem trabalhos de tempo de execução de API em execução. Detalhes adicionais.
Padrão: 6
node-api-runtime.image.repository
A imagem do contêiner a ser extraída para o ambiente de execução da API Node.js.
A política pull para o contêiner de tempo de execução da API Node.js.
Padrão: IfNotPresent
node-browser-runtime.enabled
Se o tempo de execução do navegador Node.js deve ou não ser implantado. Isso pode ser desativado se você não usar o script com simples ou monitor do navegador.
Padrão: true
node-browser-runtime.parallelism
O número de tempos de execução do navegador Chrome CronJobs a serem implantados. O número máximo de jobs simultâneos do navegador Chrome que serão executados a qualquer momento. Detalhes adicionais.
Padrão: 1
node-browser-runtime.completions
O número de tempos de execução do navegador Chrome CronJobs a serem concluídos por minuto. Aumentar esta configuração juntamente com o paralelismo para melhorar as taxas de transferência. Isto deve ser aumentado sempre que o paralelismo for aumentado e as conclusões devem sempre ser pelo menos maiores ou iguais ao paralelismo. Aumente essa configuração se você notar períodos de tempo sem tarefas de tempo de execução do navegador em execução. Detalhes adicionais.
Padrão: 6
node-browser-runtime.image.repository
A imagem do contêiner a ser extraída para o tempo de execução do navegador Node.js.
A política pull para o contêiner de tempo de execução do navegador Node.js.
Padrão: IfNotPresent
Variáveis definidas pelo usuário para monitor com script
Os gerenciadores de tarefas Private Sintético permitem configurar variáveis de ambiente para monitor com script. Essas variáveis são gerenciadas localmente no SJM e podem ser acessadas via $env.USER_DEFINED_VARIABLES. Você pode definir variáveis definidas pelo usuário de duas maneiras. Você pode montar um arquivo JSON ou fornecer uma variável de ambiente ao SJM no lançamento. Se ambos forem fornecidos, o SJM utilizará apenas valores fornecidos pelo ambiente.
O usuário pode criar um arquivo no formato JSON e montar o volume onde o arquivo está localizado em um caminho de destino especificado no contêiner SJM.
O arquivo deve ter permissões de leitura e conter um mapa formatado em JSON. Exemplo de arquivo de variáveis definidas pelo usuário:
{
"KEY":"VALUE",
"user_name":"MINION",
"my_password":"PASSW0RD123",
"my_URL":"https://newrelic.com/",
"ETC":"ETC"
}
Coloque o arquivo no diretório de origem do host. O SJM espera que o nome do arquivo seja user_defined_variables.json
Exemplo de Docker :
O diretório de destino esperado é: /var/lib/newrelic/synthetics/variables/
bash
$
docker run ... -v /variables:/var/lib/newrelic/synthetics/variables:rw ...
Exemplo de Podman:
No caso do SELinux, monte o volume adicionalmente com :z ou :Z. Para mais informações, consulte a documentação do Podman. O diretório de destino esperado é: /var/lib/newrelic/synthetics/variables/
bash
$
podman run ... -v /variables:/var/lib/newrelic/synthetics/variables:rw,z ...
Exemplo de Kubernetes:
O usuário tem duas opções ao fornecer um arquivo ao pod SJM no Kubernetes. Eles podem:
Passe um arquivo local.
Forneça um PersistentVolume que inclua o user_defined_variables.json.
Passe um arquivo local
Esta opção cria um recurso ConfigMap Kubernetes e o monta no pod SJM.
Esta opção exige que o usuário forneça um PersistentVolume que inclua o arquivo user_defined_variables.json ou um PersistentVolumeClaim para o mesmo. Para obter mais detalhes sobre a instalação do helm chart usando um PersistentVolume, siga as instruções em armazenamento permanente de dados.
Depois que o usuário tiver preparado um PersistentVolume conforme descrito abaixo, inicie o SJM, definindo o caminho onde o arquivo user_defined_variables.json está localizado e defina quaisquer outras variáveis synthetics.persistence conforme necessário.
As variáveis poderão ser passadas para seu respectivo sistema contêiner via variável de ambiente.
Exemplo de Docker :
Use a sinalização -e para configurar uma variável de ambiente chamada USER_DEFINED_VARIABLES e atribua a ela o valor de uma string de mapa formatada em JSON.
bash
$
docker run ... -eUSER_DEFINED_VARIABLES='{"key":"value","name":"sjm"}'...
Exemplo de Podman:
Use a sinalização -e para configurar uma variável de ambiente chamada USER_DEFINED_VARIABLES e atribua a ela o valor de uma string de mapa formatada em JSON.
bash
$
podman run ... -eUSER_DEFINED_VARIABLES='{"key":"value","name":"sjm"}'...
Exemplo de Kubernetes:
Use a sinalização --set-literal para transmitir a string formatada em JSON.
Acessando variáveis de ambiente definidas pelo usuário a partir do script
Para fazer referência a uma variável de ambiente definida pelo usuário configurada, use o $env.USER_DEFINED_VARIABLES reservado seguido do nome de uma determinada variável com notação de ponto (por exemplo, $env.USER_DEFINED_VARIABLES.MY_VARIABLE).
Cuidado
Variáveis de ambiente definidas pelo usuário não são limpas do log. Considere usar o recurso de credenciais seguras para informações confidenciais.
Módulos de nós personalizados
Módulos de nós personalizados são fornecidos em chamadas por minuto e SJM. Eles permitem criar um conjunto customizado de módulos de nós e utilizá-los em monitoramento scriptado ( API script e browser script) para monitoramento sintético.
Configure seu diretório de módulos personalizados
Crie um diretório com um arquivo package.json seguindo as diretrizes oficiais do npm na pasta raiz. O SJM instalará qualquer dependência listada no arquivo package.json campo dependencies . Essas dependências estarão disponíveis ao executar o monitor no gerenciador de tarefas Sintético privado. Veja um exemplo disso abaixo.
Exemplo
Neste exemplo, um diretório de módulo customizado é usado com a seguinte estrutura:
/example-custom-modules-dir/
├── counter
│ ├── index.js
│ └── package.json
└── package.json ⇦ the only mandatory file
O package.json define dependencies como um módulo local (por exemplo, counter) e qualquer módulo hospedado (por exemplo, smallest versão 1.0.1):
Adicione seu diretório de módulos personalizados ao SJM para Docker, Podman ou Kubernetes
Para docker, lance o SJM montando o diretório em /var/lib/newrelic/synthetics/modules. Por exemplo:
bash
$
docker run ... -v /example-custom-modules-dir:/var/lib/newrelic/synthetics/modules:rw ...
Para podman, inicie o SJM montando o diretório em /var/lib/newrelic/synthetics/modules. No caso do SELinux, monte o volume adicionalmente com :z ou :Z. Para mais informações, consulte a documentação do Podman. Por exemplo:
bash
$
podman run ... -v /example-custom-modules-dir:/var/lib/newrelic/synthetics/modules:rw,z ...
Para Kubernetes, o diretório em /var/lib/newrelic/synthetics/modules precisa existir em um PV antes de iniciar o SJM com módulos customizados habilitados.
Dica
O modo de acesso PV deverá ser ReadWriteMany se você precisar compartilhar o armazenamento entre vários pods.
Um método é criar um pod que monte o PV apenas com a finalidade de copiar o diretório de módulos personalizados para o PV. O exemplo a seguir usa Amazon EFS com Amazon EKS:
Criar o namespace, o volume persistente e a declaração de volume persistente
Certifique-se de já ter configurado seu sistema de arquivos EFS e instalado o driver EFS CSI em seu cluster. Você também precisará do ID do sistema de arquivos EFS para os PVs spec.csi.volumeHandle.
bash
$
kubectl apply -f - <<EOF
$
apiVersion: v1
$
kind: Namespace
$
metadata:
$
name: newrelic
$
$
---
$
kind: StorageClass
$
apiVersion: storage.k8s.io/v1
$
metadata:
$
name: efs-sc
$
provisioner: efs.csi.aws.com
$
$
---
$
apiVersion: v1
$
kind: PersistentVolume
$
metadata:
$
name: custom-modules-pvc
$
spec:
$
capacity:
$
storage: 5Gi
$
volumeMode: Filesystem
$
accessModes:
$
- ReadWriteMany
$
persistentVolumeReclaimPolicy: Retain
$
storageClassName: efs-sc
$
csi:
$
driver: efs.csi.aws.com
$
volumeHandle: <your-efs-filesystem-id>
$
$
---
$
apiVersion: v1
$
kind: PersistentVolumeClaim
$
metadata:
$
name: custom-modules-pvc
$
namespace: newrelic
$
spec:
$
accessModes:
$
- ReadWriteMany
$
storageClassName: efs-sc
$
resources:
$
requests:
$
storage: 5Gi
$
EOF
Mude para o namespace newrelic em seu ~/.kube/config.
Verifique se /var/lib/newrelic/synthetics/modules/custom-modules/package.json existe no PV.
bash
$
kubectl exec-it mount-custom-mods-pod -- bash
root@mount-custom-mods-pod:/# cd /var/lib/newrelic/synthetics/modules/
root@mount-custom-mods-pod:/var/lib/newrelic/synthetics/modules# ls -l
total 4
drwxr-xr-x 2 root root 6144 Jun 29 03:49 custom-modules
root@mount-custom-mods-pod:/var/lib/newrelic/synthetics/modules# ls -l custom-modules/
total 4
-rw-r--r-- 1 501 staff 299 Jun 29 03:49 package.json
lançar o SJM com recurso de módulos customizados habilitado
Configure valores para persistence.existingClaimName e customNodeModules.customNodeModulesPath na linha de comando ou em um arquivo YAML durante a instalação. O valor customNodeModules.customNodeModulesPath deve especificar o subcaminho no Volume Persistente onde existem seus arquivos de módulos personalizados. Por exemplo:
Para verificar se os módulos foram instalados corretamente ou se ocorreu algum erro, procure as seguintes linhas no synthetics-job-managercontêiner ou log pod :
2024-06-29 03:51:28,407{UTC} [main] INFO c.n.s.j.p.options.CustomModules - Detected mounted path for custom node modules
2024-06-29 03:51:28,408{UTC} [main] INFO c.n.s.j.p.options.CustomModules - Validating permission for custom node modules package.json file
2024-06-29 03:51:28,409{UTC} [main] INFO c.n.s.j.p.options.CustomModules - Installing custom node modules...
Agora você pode adicionar "require('smallest');" ao script de monitor que você envia para esta localização privada.
Mudar package.json
Além dos módulos locais e hospedados, você também pode utilizar módulos Node.js. Para atualizar os módulos customizados usados pelo seu SJM, faça alterações no arquivo package.json e reinicie o SJM. Durante o processo de reinicialização, o SJM reconhecerá a alteração na configuração e executará automaticamente as operações de limpeza e reinstalação para garantir que os módulos atualizados sejam aplicados.
Cuidado
Módulos locais: embora seu package.json possa incluir qualquer módulo local, esses módulos devem residir na árvore no diretório do módulo personalizado. Se armazenado fora da árvore, o processo de inicialização falhará e você verá uma mensagem de erro no log docker após iniciar o SJM.
Armazenamento permanente de dados
O usuário pode querer usar o armazenamento permanente de dados para fornecer o arquivo user_defined_variables.json ou oferecer suporte a módulos de nós personalizados.
Docker
Para definir o armazenamento permanente de dados no Docker:
Crie um diretório no host onde você está iniciando o Job Manager. Este é o seu diretório de origem.
inicie o Job Manager, montando o diretório de origem no diretório de destino /var/lib/newrelic/synthetics.
Exemplo:
bash
$
docker run ... -v /sjm-volume:/var/lib/newrelic/synthetics:rw ...
Homem-Pod
Para definir o armazenamento permanente de dados no Podman:
Crie um diretório no host onde você está iniciando o Job Manager. Este é o seu diretório de origem.
inicie o Job Manager, montando o diretório de origem no diretório de destino /var/lib/newrelic/synthetics.
Exemplo:
bash
$
podman run ... -v /sjm-volume:/var/lib/newrelic/synthetics:rw,z ...
Kubernetes
Para definir o armazenamento permanente de dados no Kubernetes, o usuário tem duas opções:
Forneça um PersistentVolumeClaim (PVC) existente para um PersistentVolume (PV) existente, definindo o valor de configuração synthetics.persistence.existingClaimName . Exemplo:
Forneça um nome PersistentVolume (PV) existente, definindo o valor de configuração synthetics.persistence.existingVolumeName . Helm irá gerar um PVC para o usuário. O usuário também pode definir opcionalmente os seguintes valores:
synthetics.persistence.storageClass: A classe de armazenamento do PV existente. Se não for fornecido, o Kubernetes usará a classe de armazenamento padrão.
synthetics.persistence.size: O tamanho da reivindicação. Se não for definido, o padrão atualmente é 2Gi.
Para garantir que sua localização privada seja executada com eficiência, você deve provisionar recursos de CPU suficientes em seu host para lidar com sua workload de monitoramento. Muitos fatores influenciam o dimensionamento, mas você pode estimar rapidamente suas necessidades. Você precisará de 1 núcleo de CPU para cada monitor pesado (por exemplo, navegador simples, navegador com script ou monitor de API com script). Abaixo estão duas fórmulas para ajudar você a calcular o número de núcleos necessários, seja para diagnosticar uma configuração atual ou planejar uma futura.
Fórmula 1: Diagnosticando um Local Existente
Se sua localização privada atual estiver com dificuldades para acompanhar e você suspeitar que há trabalhos na fila, use esta fórmula para descobrir quantos núcleos você realmente precisa. Baseia-se no desempenho observável do seu sistema.
$$ C_req = (R_proc + R_growth) \cdot D_avg,m $$
C_req = Núcleos de CPU necessários.
R_proc = A taxa de trabalhos pesados sendo processados por minuto.
R_growth = A taxade crescimento da sua fila jobManagerHeavyweightJobs por minuto.
D_avg,m = A duração média de trabalhos pesados em minutos.
This formula calculates your true job arrival rate by adding the jobs your system is processing to the jobs that are piling up in the queue. Multiplying this total load by the average job duration tells you exactly how many cores you need to clear all the work without queuing.
Fórmula 2: Previsão de um local novo ou futuro
Se você estiver configurando uma nova localização privada ou planejando adicionar mais monitores, use esta fórmula para prever suas necessidades com antecedência.
N_mon = O número total de monitores pesados que você planeja executar.
D_avg,m = A duração média de um trabalho pesado em minutos.
P_avg,m = O período médio para monitores pesados em minutos (por exemplo, um monitor que é executado a cada 5 minutos tem P_avg,m=5).
This calculates your expected workload from first principles: how many monitors you have, how often they run, and how long they take.
Fatores importantes de dimensionamento
Ao usar essas fórmulas, lembre-se de levar em conta estes fatores:
Duração do trabalho (D_avg,m): Sua média deve incluir trabalhos que expiram (geralmente ~3 minutos), pois eles mantêm um núcleo durante toda a sua duração.
Falhas e novas tentativas de trabalho: quando um monitor falha, ele é automaticamente repetido. Essas tentativas são trabalhos adicionais que aumentam a carga total. Um monitor que falha consistentemente e tenta novamente multiplica efetivamente seu período, impactando significativamente as taxas de transferência.
Escalonamento: além de adicionar mais núcleos a um host (escalonamento vertical), você pode implantar gerenciadores de tarefas adicionais da Sintéticos com a mesma chave de localização privada para balancear a carga de tarefas em vários ambientes (escalonamento horizontal).
É importante observar que um único Sintéticos Job Manager (SJM) tem um limite de taxas de transferência de aproximadamente 15 trabalhos pesados por minuto. Isso se deve a uma estratégia de segmentação interna que favorece a competição eficiente de trabalhos entre vários SJMs em relação ao número bruto de trabalhos processados por SJM. Se seus cálculos indicarem a necessidade de taxas de transferência mais altas, você deverá expandir implantando SJMs adicionais. Você pode verificar se sua fila de tarefas está crescendo para determinar se mais SJMs são necessários.
Adicionar mais SJMs com a mesma chave de localização privada oferece diversas vantagens:
Balanceamento de carga: Os trabalhos para localização privada são distribuídos em todos os SJMs disponíveis.
Proteção contra failover: se uma instância do SJM ficar inativa, outras poderão continuar processando trabalhos.
Taxas de transferência totais mais altas: As taxas de transferência totais para sua localização privada tornam-se a soma das taxas de transferência de cada SJM (por exemplo, dois SJMs fornecem até ~30 trabalhos/minuto).
Consulta NRQL para diagnóstico
Você pode executar essas consultas no criador de consultas para obter as entradas para a fórmula de diagnóstico. Certifique-se de definir o intervalo de tempo para um período longo o suficiente para obter uma média estável.
1. Find the rate of jobs processed per minute (R_proc): This query counts the number of non-ping (heavyweight) jobs completed over the last day and shows the average rate per minute.
FROM SyntheticCheck
SELECT rate(uniqueCount(id),1minute)AS'job rate per minute'
WHERE location ='YOUR_PRIVATE_LOCATION'AND typeLabel !='Ping'
SINCE 1day ago
2. Find the rate of queue growth per minute (R_growth): This query calculates the average per-minute growth of the jobManagerHeavyweightJobs queue on a time series chart. A line above zero indicates the queue is growing, while a line below zero means it's shrinking.
FROM SyntheticsPrivateLocationStatus
SELECT derivative(jobManagerHeavyweightJobs,1minute)AS'queue growth rate per minute'
WHERE name ='YOUR_PRIVATE_LOCATION'
TIMESERIES SINCE 1day ago
Dica
Certifique-se de selecionar a conta onde existe a localização privada. É melhor visualizar essa consulta como uma série temporal porque a função derivada pode variar muito. O objetivo é obter uma estimativa da taxa de crescimento da fila por minuto. Play diferentes intervalos de tempo para ver o que funciona melhor.
3. Find total number of heavyweight monitors (N_mon): This query finds the unique count of heavyweight monitors.
FROM SyntheticCheck
SELECT uniqueCount(monitorId)AS'monitor count'
WHERE location ='YOUR_PRIVATE_LOCATION'AND typeLabel !='Ping'
SINCE 1day ago
4. Find average job duration in minutes (D_avg,m): This query finds the average execution duration of completed non-ping jobs and converts the result from milliseconds to minutes. executionDuration represents the time the job took to execute on the host.
WHERE location ='YOUR_PRIVATE_LOCATION'AND typeLabel !='Ping'
SINCE 1day ago
5. Encontre o período médio do monitor de peso pesado (P_avg,m): Se a fila jobManagerHeavyweightJobs da localização privada estiver crescendo, não será preciso calcular o período médio do monitor a partir dos resultados existentes. Isso precisará ser estimado a partir da lista de monitores na página Monitores Sintético. Certifique-se de selecionar a conta New Relic correta e talvez seja necessário filtrar por privateLocation.
Dica
Monitores Sintéticos podem existir em múltiplas subcontas. Se você tiver mais subcontas do que as que podem ser selecionadas no criador de consulta, escolha as contas com mais monitores.
Nota sobre monitores de ping e a fila pingJobs
Os monitores de ping são diferentes. São trabalhos leves que não consomem um núcleo de CPU completo cada. Em vez disso, eles usam uma fila separada (pingJobs) e são executados em um pool de threads de trabalho.
Embora consumam menos recursos, um alto volume de tarefas de ping, especialmente aquelas com falhas, ainda pode causar problemas de desempenho. Tenha estes pontos em mente:
Modelo de recursos: os trabalhos de ping utilizam threads de trabalho, não núcleos de CPU dedicados. O cálculo de núcleo por trabalho não se aplica a eles.
Tempo limite e nova tentativa: uma tarefa de ping com falha pode ocupar um thread de trabalho por até 60 segundos. Primeiro, ele tenta uma solicitação HTTP HEAD (tempo limite de 30 segundos). Se isso falhar, ele tenta imediatamente com uma solicitação HTTP GET (outro tempo limite de 30 segundos).
Dimensionamento: embora a fórmula de dimensionamento seja diferente, os mesmos princípios se aplicam. Para lidar com um grande volume de trabalhos de ping e evitar que a fila pingJobs cresça, talvez seja necessário aumentar e/ou diminuir a escala. Aumentar a escala significa aumentar os recursos de CPU e memória por host ou namespace. Escalar significa adicionar mais instâncias do tempo de execução do ping. Isso pode ser feito implantando mais gerenciadores de tarefas em mais hosts, em mais namespaces ou até mesmo dentro do mesmo namespace. Como alternativa, o ping-runtime no Kubernetes permite que você defina um número maior de réplicas por implantação.
Sizing considerations for Kubernetes and OpenShift
Cada tempo de execução usado pelo gerenciador de tarefas Kubernetes e do OpenShift Sintético pode ser dimensionado independentemente definindo valores no gráfico do helm. O node-api-runtime e o node-browser-runtime são dimensionados independentemente usando uma combinação das configurações parallelism e completions.
The parallelism setting controls how many pods of a particular runtime run concurrently.
The completions setting controls how many pods must complete before the CronJob starts another Kubernetes Job for that runtime.
How to Size Your Deployment: A Step-by-Step Guide
Your goal is to configure enough parallelism to handle your job load without exceeding the throughput limit of your SJM instances.
Step 1: Estimate Your Required Workload
Completions: This determines how many runtime pods should complete before a new Kubernetes Job is started.
First, determine your private location's average job execution duration and job rate. Use executionDuration as it most accurately reflects the pod's active runtime.
-- Get average job execution duration (in seconds)
WHERE typeLabel !='Ping'AND location ='YOUR_PRIVATE_LOCATION'
FACET typeLabel SINCE 1hour ago
$$ Completions = \frac5D_avg,m $$
Where D_avg,m is your average job execution duration in seconds.
Required Parallelism: This determines how many workers (pods) you need running concurrently to handle your 5-minute job load.
-- Get jobs per 5 minutes
FROM SyntheticCheck
SELECT rate(uniqueCount(id),5 minutes)AS'N_m'
WHERE typeLabel !='Ping'AND location ='YOUR_PRIVATE_LOCATION'
FACET typeLabel SINCE 1hour ago
$$ P_req = \fracN_mCompletions $$
Where N_m is your number of jobs per 5 minutes. This P_req value is your target total parallelism.
Step 2: Check Against the Single-SJM Throughput Limit
Max Parallelism: This determines how many workers (pods) your SJM can effectively utilize.
$$ P_max \approx 15 \cdot D_avg,m $$
This P_max value is your system limit for one SJM Helm deployment.
Dica
The above queries are based on current results. If your private location does not have any results or the job manager is not performing at its best, query results may not be accurate. In that case, start with the examples in the table below and adjust until your queue is stable.
Dica
A key consideration is that a single SJM instance has a maximum throughput of approximately 15 heavyweight jobs per minute. You can calculate the maximum effective parallelism (P_max) a single SJM can support before hitting this ceiling.
Step 3: Compare, Configure, and Scale
Compare your required parallelism (P_req) from Step 1 to the maximum parallelism (P_max) from Step 2.
Scenario A:P_req≤P_max
Diagnosis: Your job load is within the limit of a single SJM instance.
Action:
You will deploy one SJM Helm release.
In your Helm chart values.yaml, set parallelism to your calculated P_req.
Set completions to your calculated Completions. For improved efficiency, this value should typically be 6-10x your parallelism setting.
Scenario B:P\_req > P\_max
Diagnosis: Your job load exceeds the ~15 jobs/minute limit of a single SJM.
Action:
You must scale out by deploying multiple, separate SJM Helm releases.
Do not increase the replicaCount in your Helm chart.
Step 4: Monitor Your Queue
After applying your changes, you must verify that your job queue is stable and not growing. A consistently growing queue means your location is still under-provisioned.
Run this query to check the queue's growth rate:
-- Check for queue growth (a positive value means the queue is growing)
If the "Queue Growth Rate" is consistently positive, you need to install more SJM Helm deployments (Scenario B) or re-check your parallelism settings (Scenario A).
Configuration Examples and Tuning
The parallelism setting directly affects how many synthetics jobs per minute can be run. Too small a value and the queue may grow. Too large a value and nodes may become resource constrained.
Exemplo
Descrição
parallelism=1completions=1
O runtime executará 1 job Sintético por minuto. Após a conclusão de 1 trabalho, a configuração CronJob iniciará um novo trabalho no minuto seguinte. Throughput will be extremely limited with this configuration.
parallelism=1completions=6
The runtime will execute 1 synthetics job at a time. After the job completes, a new job will start immediately. After 6 jobs complete, the CronJob configuration will start a new Kubernetes Job. Throughput will be limited. A single long-running synthetics job will block the processing of any other synthetics jobs of this type.
parallelism=3completions=24
The runtime will execute 3 synthetics jobs at once. After any of these jobs complete, a new job will start immediately. After 24 jobs complete, the CronJob configuration will start a new Kubernetes Job. Throughput is much better with this or similar configurations.
If your parallelism setting is working well (keeping the queue at zero), setting a higher completions value (e.g., 6-10x parallelism) can improve efficiency by:
Accommodating variability in job durations.
Reducing the number of completion cycles to minimize the "nearing the end of completions" inefficiency where the next batch can't start until the final job from the current batch completes.
É importante observar que o valor completions não deve ser muito grande ou o CronJob receberá um aviso como este:
bash
$
8m40s Warning TooManyMissedTimes cronjob/synthetics-node-browser-runtime too many missed start times: 101. Set or decrease .spec.startingDeadlineSeconds or check clock skew
Dica
New Relic não se responsabiliza por quaisquer modificações que você fizer nos arquivos do gerenciador de tarefas do Sintéticos.
Scaling out with multiple SJM deployments
To scale beyond the ~15 jobs/minute throughput of a single SJM, you must install multiple, separate SJM Helm releases.
Importante
Do not use replicaCount to scale the job manager pod. You cannot scale by increasing the replicaCount for a single Helm release. The SJM architecture requires a 1:1 relationship between a runtime pod and its parent SJM pod. If runtime pods send results back to the wrong SJM replica (e.g., through a Kubernetes service), those results will be lost.
The correct strategy is to deploy multiple SJM instances, each as its own Helm release. Each SJM will compete for jobs from the same private location, providing load balancing, failover protection, and an increased total job throughput.
Simplified Scaling Strategy
Assuming P\_req > P\_max and you need to scale out, you can simplify maintenance by treating each SJM deployment as a fixed-capacity unit.
Set Max Parallelism: For each SJM, set parallelism to the same P_max value. This maximizes the potential throughput of each SJM.
Set Completions: For each SJM, set completions to a fixed value as well. The P_req formula from Step 1 can be modified to estimate completions by substituting in the P_max value:
$$ Completions = \fracN_mP_max $$
Where N_m is your number of jobs per 5 minutes. Adjust as needed after deploying to target a 5 minute Kubernetes job age per runtime, i.e., node-browser-runtime and node-api-runtime.
Install Releases: Install as many separate Helm releases as you need to handle your total P_req. For example, if your total P_req is 60 and you've fixed each SJM's parallelism at 20 (P_max from Step 2), you would need three separate Helm deployments to meet the required job demand.
Monitor and Add: Monitor your job queue (see Step 4). If it starts to grow, simply install another Helm release (e.g., sjm-delta) using the same fixed configuration.
By fixing parallelism and completions to static values based on P_max, increasing or decreasing capacity becomes a simpler process of adding or removing Helm releases. This helps to avoid wasting cluster resources on a parallelism value that is higher than the SJM can effectively utilize.
Installation Example
When installing multiple SJM releases, you must provide a unique name for each release. All instances must be configured with the same private location key.
Setting the fullnameOverride is highly recommended to create shorter, more manageable resource names. For example, to install two SJMs named sjm-alpha and sjm-beta into the newrelic namespace (both using the same values.yaml with your fixed parallelism and completions):