1. Visão geral
Os aplicativos de IA generativa exigem observabilidade como qualquer outro. Há técnicas de observabilidade especiais necessárias para a IA generativa?
Neste laboratório, você vai criar um aplicativo simples do Gen AI. Implante no Cloud Run. E instrumente com recursos essenciais de monitoramento e geração de registros usando os serviços e produtos de observabilidade do Google Cloud.
O que você vai aprender
- Criar um aplicativo que usa a Vertex AI com o editor do Cloud Shell
- Armazenar o código do aplicativo no GitHub
- Use a CLI gcloud para implantar o código-fonte do seu aplicativo no Cloud Run
- Adicionar recursos de monitoramento e registro ao seu aplicativo de IA generativa
- Como usar métricas com base em registros
- Implementar a geração de registros e o monitoramento com o SDK do Open Telemetry
- Receba insights sobre o processamento responsável de dados de IA
2. Pré-requisitos
Se você ainda não tem uma Conta do Google, crie uma.
3. Configurar o projeto
- Faça login no Console do Google Cloud com sua Conta do Google.
- Crie um novo projeto ou escolha reutilizar um projeto atual. Anote o ID do projeto que você acabou de criar ou selecionar.
- Ative o faturamento do projeto.
- A conclusão deste laboratório deve custar menos de US $5 em custos de faturamento.
- Siga as etapas no final deste laboratório para excluir recursos e evitar cobranças.
- Novos usuários estão qualificados para o teste sem custo financeiro de US$300.
- Confirme se o faturamento está ativado em Meus projetos no Cloud Billing
- .
- Se o novo projeto mostrar
Billing is disabled
na colunaBilling account
:- Clique nos três pontos na coluna
Actions
. - Clique em Mudar faturamento.
- Selecione a conta de faturamento que você quer usar.
- Clique nos três pontos na coluna
- Se você estiver participando de um evento ao vivo, a conta provavelmente será chamada de Conta de faturamento de teste do Google Cloud Platform.
- Se o novo projeto mostrar
4. Preparar o editor do Cloud Shell
- Acesse o editor do Cloud Shell. Se você receber a mensagem a seguir solicitando a autorização do Cloud Shell para chamar o gcloud com suas credenciais, clique em Autorizar para continuar.
- Abrir janela do terminal
- Clique no menu de navegação
.
- Clique em Terminal.
- Clique em Novo terminal
.
- Clique no menu de navegação
- No terminal, configure o ID do projeto:
Substituagcloud config set project [PROJECT_ID]
[PROJECT_ID]
pelo ID do seu projeto. Por exemplo, se o ID do projeto forlab-example-project
, o comando será: Se você receber a seguinte mensagem informando que o gcloud está solicitando suas credenciais para a API GCPI, clique em Autorizar para continuar.gcloud config set project lab-project-id-example
Se a execução for bem-sucedida, você verá a seguinte mensagem: Se você receber umaUpdated property [core/project].
WARNING
e receber uma solicitaçãoDo you want to continue (Y/N)?
, provavelmente inseriu o ID do projeto incorretamente. PressioneN
, pressioneEnter
e tente executar o comandogcloud config set project
novamente depois de encontrar o ID do projeto correto. - (Opcional) Se você tiver problemas para encontrar o ID do projeto, execute o comando a seguir para conferir o ID de todos os seus projetos classificados por data de criação em ordem decrescente:
gcloud projects list \ --format='value(projectId,createTime)' \ --sort-by=~createTime
5. ative as APIs do Google
No terminal, ative as APIs do Google necessárias para este laboratório:
gcloud services enable \
run.googleapis.com \
cloudbuild.googleapis.com \
aiplatform.googleapis.com \
logging.googleapis.com \
monitoring.googleapis.com \
cloudtrace.googleapis.com
Esse comando leva algum tempo para ser concluído. Uma mensagem semelhante a esta vai aparecer:
Operation "operations/acf.p2-73d90d00-47ee-447a-b600" finished successfully.
Se você receber uma mensagem de erro começando com ERROR: (gcloud.services.enable) HttpError accessing
e contendo detalhes de erro como abaixo, tente novamente o comando após um atraso de um a dois minutos.
"error": { "code": 429, "message": "Quota exceeded for quota metric 'Mutate requests' and limit 'Mutate requests per minute' of service 'serviceusage.googleapis.com' ...", "status": "RESOURCE_EXHAUSTED", ... }
6. Criar um app de IA generativa em Node.js
Nesta etapa, você vai escrever um código do aplicativo simples baseado em solicitações que usa o modelo Gemini para mostrar 10 curiosidades sobre um animal de sua escolha. Siga as instruções para criar o código do aplicativo.
- No terminal, crie o diretório
codelab-o11y
:mkdir ~/codelab-o11y
- Mude o diretório atual para
codelab-o11y
:cd ~/codelab-o11y
- Inicialize
package.json
do aplicativo NodeJS:npm init -y
- Instale o pacote
fastify
:npm install fastify
- Instale os pacotes do SDK do Cloud para autenticação e trabalhe com a Vertex AI:
npm install google-auth-library @google-cloud/vertexai
- Crie um arquivo
index.js
e abra-o no editor do Cloud Shell: Um arquivo vazio vai aparecer na janela do editor acima do terminal. A tela vai ficar assim:cloudshell edit index.js
- Copie e cole o código abaixo no arquivo
index.js
aberto: Depois de alguns segundos, o editor do Cloud Shell vai salvar o código automaticamente.const { VertexAI } = require('@google-cloud/vertexai'); const { GoogleAuth } = require('google-auth-library'); let generativeModel; const auth = new GoogleAuth(); auth.getProjectId().then(result => { const vertex = new VertexAI({ project: result }); generativeModel = vertex.getGenerativeModel({ model: 'gemini-1.5-flash' }); }); const fastify = require('fastify')(); const PORT = parseInt(process.env.PORT || '8080'); fastify.get('/', async function (request, reply) { const animal = request.query.animal || 'dog'; const prompt = `Give me 10 fun facts about ${animal}. Return this as html without backticks.` const resp = await generativeModel.generateContent(prompt); const html = resp.response.candidates[0].content.parts[0].text; reply.type('text/html').send(html); }) fastify.listen({ host: '0.0.0.0', port: PORT }, function (err, address) { if (err) { console.error(err); process.exit(1); } console.log(`codelab-genai: listening on ${address}`); })
Implantar o código do aplicativo de IA generativa no Cloud Run
- Na janela do terminal, execute o comando para implantar o código-fonte do aplicativo no Cloud Run.
Se você receber uma mensagem como a abaixo, o comando vai criar um novo repositório. Clique emgcloud run deploy codelab-o11y-service \ --source="${HOME}/codelab-o11y/" \ --region=us-central1 \ --allow-unauthenticated
Enter
. O processo de implantação pode levar alguns minutos. Depois que o processo de implantação for concluído, você vai receber uma saída como esta:Deploying from source requires an Artifact Registry Docker repository to store built containers. A repository named [cloud-run-source-deploy] in region [us-central1] will be created. Do you want to continue (Y/n)?
Service [codelab-o11y-service] revision [codelab-o11y-service-00001-t2q] has been deployed and is serving 100 percent of traffic. Service URL: https://codelab-o11y-service-12345678901.us-central1.run.app
- Copie o URL do serviço do Cloud Run exibido para uma guia ou janela separada no navegador. Como alternativa, execute o comando a seguir no terminal para imprimir o URL do serviço e clique no URL mostrado enquanto pressiona a tecla Ctrl para abrir o URL:
Quando o URL é aberto, você pode receber um erro 500 ou a mensagem:gcloud run services list \ --format='value(URL)' \ --filter='SERVICE:"codelab-o11y-service"'
Isso significa que os serviços não concluíram a implantação. Aguarde alguns instantes e atualize a página. No final, você vai encontrar um texto que começa com Curiosidades sobre cães e contém 10 curiosidades sobre cães.Sorry, this is just a placeholder...
Tente interagir com o aplicativo para conferir curiosidades sobre diferentes animais. Para fazer isso, anexe o parâmetro animal
ao URL, como ?animal=[ANIMAL]
, em que [ANIMAL]
é o nome de um animal. Por exemplo, adicione ?animal=cat
para receber 10 curiosidades sobre gatos ou ?animal=sea turtle
para receber 10 curiosidades sobre tartarugas marinhas.
7. Auditar suas chamadas da API Vertex
A auditoria das chamadas de API do Google responde a perguntas como "Quem chamou uma API específica, onde e quando?". A auditoria é importante quando você soluciona problemas no aplicativo, investiga o consumo de recursos ou realiza análises forenses de software.
Os registros de auditoria permitem acompanhar atividades administrativas e do sistema, além de registrar chamadas para operações de "leitura de dados" e "gravação de dados" da API. Para auditar solicitações da Vertex AI para gerar conteúdo, ative os registros de auditoria "Leitura de dados" no console do Cloud.
- Clique no botão abaixo para abrir a página "Registros de auditoria" no console do Cloud
- Verifique se a página tem o projeto que você criou para este laboratório selecionado. O projeto selecionado aparece no canto superior esquerdo da página, no menu de navegação:
Se necessário, selecione o projeto correto na caixa de combinação. - Na tabela Configuração dos registros de auditoria de acesso a dados, na coluna "Serviço", encontre o serviço
Vertex AI API
e selecione-o marcando a caixa de seleção à esquerda do nome do serviço. - No painel de informações à direita, selecione o tipo de auditoria "Leitura de dados".
- Clique em Salvar.
Para gerar registros de auditoria, abra o URL do serviço. Atualize a página enquanto muda o valor do parâmetro ?animal=
para obter resultados diferentes.
Acessar registros de auditoria
- Clique no botão abaixo para abrir a página do Logs Explorer no console do Cloud:
- Cole o filtro a seguir no painel "Consulta".
O painel "Query" é um editor localizado na parte de cima da página "Explorador de registros":LOG_ID("cloudaudit.googleapis.com%2Fdata_access") AND protoPayload.serviceName="aiplatform.googleapis.com"
- Clique em Executar consulta.
- Selecione uma das entradas do registro de auditoria e abra os campos para inspecionar as informações capturadas no registro.
É possível conferir detalhes sobre a chamada da API Vertex, incluindo o método e o modelo usado. Você também pode conferir a identidade do invocador e quais permissões autorizaram a chamada.
8. Registrar interações com a IA generativa
Não é possível encontrar parâmetros de solicitação de API ou dados de resposta nos registros de auditoria. No entanto, essas informações podem ser importantes para solucionar problemas de análise de aplicativos e fluxos de trabalho. Nesta etapa, vamos preencher essa lacuna adicionando o registro do aplicativo. A geração de registros usa o método padrão de geração de registros do NodeJS console.log
para gravar registros estruturados na saída padrão. Esse método usa a capacidade do Cloud Run de capturar informações impressas na saída padrão e transferi-las automaticamente para o Cloud Logging. Para capturar corretamente os registros estruturados, o registro impresso precisa ser formatado de maneira adequada. Siga as instruções abaixo para adicionar recursos de geração de registros estruturados ao nosso aplicativo NodeJS.
- Volte para a janela (ou guia) do Cloud Shell no navegador.
- No terminal, abra novamente
index.js
:cloudshell edit ~/codelab-o11y/index.js
- Siga estas etapas para registrar a resposta do modelo:
- Encontre a chamada para
await generativeModel.generateContent()
(na linha 20). - Copie e cole o código abaixo no início da próxima linha.
console.log(JSON.stringify({ severity: 'DEBUG', message: 'Content is generated', animal: animal, prompt: prompt, response: resp.response, }));
- Encontre a chamada para
A função do manipulador é modificada para chamar console.log()
e imprimir a estrutura JSON, cujo esquema segue as diretrizes de formatação estruturada. O registro captura o parâmetro de animal da solicitação e o comando e a resposta do modelo.
Depois de alguns segundos, o editor do Cloud Shell salva suas alterações automaticamente.
Implantar o código do aplicativo de IA generativa no Cloud Run
- Na janela do terminal, execute o comando para implantar o código-fonte do aplicativo no Cloud Run.
Se você receber uma mensagem como a abaixo, o comando vai criar um novo repositório. Clique emgcloud run deploy codelab-o11y-service \ --source="${HOME}/codelab-o11y/" \ --region=us-central1 \ --allow-unauthenticated
Enter
. O processo de implantação pode levar alguns minutos. Depois que o processo de implantação for concluído, você vai receber uma saída como esta:Deploying from source requires an Artifact Registry Docker repository to store built containers. A repository named [cloud-run-source-deploy] in region [us-central1] will be created. Do you want to continue (Y/n)?
Service [codelab-o11y-service] revision [codelab-o11y-service-00001-t2q] has been deployed and is serving 100 percent of traffic. Service URL: https://codelab-o11y-service-12345678901.us-central1.run.app
- Copie o URL do serviço do Cloud Run exibido para uma guia ou janela separada no navegador. Como alternativa, execute o comando a seguir no terminal para imprimir o URL do serviço e clique no URL mostrado enquanto pressiona a tecla Ctrl para abrir o URL:
Quando o URL é aberto, você pode receber um erro 500 ou a mensagem:gcloud run services list \ --format='value(URL)' \ --filter='SERVICE:"codelab-o11y-service"'
Isso significa que os serviços não concluíram a implantação. Aguarde alguns instantes e atualize a página. No final, você vai encontrar um texto que começa com Curiosidades sobre cães e contém 10 curiosidades sobre cães.Sorry, this is just a placeholder...
Para gerar registros do aplicativo, abra o URL do serviço. Atualize a página enquanto muda o valor do parâmetro ?animal=
para obter resultados diferentes.
Para conferir os registros do aplicativo, faça o seguinte:
- Clique no botão abaixo para abrir a página do Logs Explorer no console do Cloud:
- Cole o seguinte filtro no painel de consulta (#2 na interface do Gerenciador de registros):
LOG_ID("run.googleapis.com%2Fstdout") AND severity=DEBUG
- Clique em Executar consulta.
O resultado da consulta mostra registros com o comando e a resposta da Vertex AI, incluindo as classificações de segurança.
9. Contar interações com a IA generativa
O Cloud Run grava métricas gerenciadas que podem ser usadas para monitorar os serviços implantados. As métricas de monitoramento gerenciadas pelo usuário oferecem mais controle sobre os dados e a frequência da atualização da métrica. Para implementar essa métrica, é necessário escrever um código que colete dados e os grave no Cloud Monitoring. Consulte a próxima etapa (opcional) para saber como implementar usando o SDK do OpenTelemetry.
Esta etapa mostra uma alternativa para implementar a métrica do usuário no código: métricas com base em registros. As métricas com base em registros permitem gerar métricas de monitoramento com base nas entradas de registro que seu aplicativo grava no Cloud Logging. Vamos usar os registros do aplicativo que implementamos na etapa anterior para definir uma métrica com base em registros do contador de tipo. A métrica vai contar o número de chamadas bem-sucedidas para a API Vertex.
- Observe a janela do Explorador de registros que usamos na etapa anterior. No painel "Consulta", localize o menu suspenso Ações e clique nele para abrir. Consulte a captura de tela abaixo para encontrar o menu:
- No menu aberto, selecione Criar métrica para abrir o painel Criar métrica com base em registros.
- Siga estas etapas para configurar uma nova métrica de contagem no painel Criar métrica com base em registros:
- Defina o Tipo de métrica: selecione Contador.
- Defina os seguintes campos na seção Detalhes:
- Nome da métrica de registro: defina o nome como
model_interaction_count
. Algumas restrições de nomenclatura se aplicam. Consulte Solução de problemas para mais detalhes. - Descrição: insira uma descrição para a métrica. Por exemplo,
Number of log entries capturing successful call to model inference.
- Unidades: deixe em branco ou insira o dígito
1
.
- Nome da métrica de registro: defina o nome como
- Deixe os valores na seção Seleção de filtro. O campo Build filter tem o mesmo filtro que usamos para conferir os registros do aplicativo.
- (Opcional) Adicione um rótulo que ajude a contar o número de chamadas para cada animal. OBSERVAÇÃO: esse rótulo pode aumentar muito a cardinalidade da métrica e não é recomendado para uso na produção:
- Clique em Adicionar rótulo.
- Defina os seguintes campos na seção Rótulos:
- Nome do rótulo: defina o nome como
animal
. - Descrição: insira a descrição do rótulo. Por exemplo,
Animal parameter
. - Tipo de rótulo: selecione
STRING
. - Nome do campo: digite
jsonPayload.animal
. - Expressão regular: deixe em branco.
- Nome do rótulo: defina o nome como
- Clique em Concluir.
- Clique em Criar métrica para criá-la.
Também é possível criar uma métrica com base em registros na página Métricas com base em registros usando o comando CLI gcloud logging metrics create
ou o recurso do Terraform google_logging_metric
.
Para gerar dados de métrica, abra o URL do serviço. Atualize a página aberta várias vezes para fazer várias chamadas para o modelo. Como antes, tente usar animais diferentes no parâmetro.
Insira a consulta PromQL para pesquisar os dados de métrica com base em registros. Para inserir uma consulta em PromQL, faça o seguinte:
- Clique no botão abaixo para abrir a página do Metrics Explorer no console do Cloud:
- Na barra de ferramentas do painel do criador de consultas, selecione o botão < > MQL ou < > PromQL. Confira a imagem abaixo para ver a localização do botão.
- Verifique se PromQL está selecionado no botão de alternância Idioma. A alternância de idiomas está na mesma barra de ferramentas que permite formatar sua consulta.
- Insira sua consulta no editor Consultas:
Para mais informações sobre como usar o PromQL, consulte PromQL no Cloud Monitoring.sum(rate(logging_googleapis_com:user_model_interaction_count{monitored_resource="cloud_run_revision"}[${__interval}]))
- Selecione Executar consulta. Você vai encontrar um gráfico de linhas semelhante a esta captura de tela:
Observe que, quando a opção Execução automática está ativada, o botão Executar consulta não é exibido.
10. (Opcional) Usar a telemetria aberta para monitoramento e rastreamento
Como mencionado na etapa anterior, é possível implementar métricas usando o SDK do OpenTelemetry (Otel). O uso do OTel em arquiteturas de microsserviços é uma prática recomendada. Esta etapa descreve o seguinte:
- Como inicializar componentes do OTel para oferecer suporte ao rastreamento e monitoramento do aplicativo
- Como preencher a configuração do OTel com metadados de recursos do ambiente do Cloud Run
- Como instrumentar um aplicativo flask com recursos de rastreamento automático
- Implementar uma métrica de contador para monitorar o número de chamadas de modelo bem-sucedidas
- Correlacionar o rastreamento com os registros do aplicativo
A arquitetura recomendada para serviços no nível do produto é usar o OTel collector para coletar e processar todos os dados de observabilidade de um ou mais serviços. O código desta etapa não usa o coletor para simplificar. Em vez disso, ele usa exportações do OTel que gravam dados diretamente no Google Cloud.
Configurar componentes do OTel para rastreamento e monitoramento de métricas
- Volte para a janela (ou guia) do Cloud Shell no navegador.
- Instale os pacotes necessários para usar a autoinstrumentação do OpenTelemetry:
npm install @opentelemetry/sdk-node \ @opentelemetry/api \ @opentelemetry/auto-instrumentations-node \ @opentelemetry/instrumentation-express \ @opentelemetry/instrumentation-http \ @opentelemetry/sdk-metrics \ @opentelemetry/sdk-trace-node \ @google-cloud/opentelemetry-cloud-trace-exporter \ @google-cloud/opentelemetry-cloud-monitoring-exporter \ @google-cloud/opentelemetry-resource-util
- No terminal, crie um arquivo
setup.js
:cloudshell edit ~/codelab-o11y/setup.js
- Copie e cole o código abaixo no editor para configurar o rastreamento e monitoramento do OpenTelemetry.
const opentelemetry = require("@opentelemetry/api"); const { registerInstrumentations } = require('@opentelemetry/instrumentation'); const { NodeTracerProvider } = require('@opentelemetry/sdk-trace-node'); const { MeterProvider, PeriodicExportingMetricReader } = require("@opentelemetry/sdk-metrics"); const { AlwaysOnSampler, SimpleSpanProcessor } = require('@opentelemetry/sdk-trace-base'); const { Resource } = require('@opentelemetry/resources'); const { ATTR_SERVICE_NAME } = require('@opentelemetry/semantic-conventions'); const { FastifyInstrumentation } = require('@opentelemetry/instrumentation-fastify'); const { HttpInstrumentation } = require('@opentelemetry/instrumentation-http'); const { TraceExporter } = require("@google-cloud/opentelemetry-cloud-trace-exporter"); const { MetricExporter } = require("@google-cloud/opentelemetry-cloud-monitoring-exporter"); const { GcpDetectorSync } = require("@google-cloud/opentelemetry-resource-util"); module.exports = { setupTelemetry }; function setupTelemetry() { const gcpResource = new Resource({ [ATTR_SERVICE_NAME]: process.env.K_SERVICE, }).merge(new GcpDetectorSync().detect()) const tracerProvider = new NodeTracerProvider({ resource: gcpResource, sampler: new AlwaysOnSampler(), spanProcessors: [new SimpleSpanProcessor(new TraceExporter({ // will export all resource attributes that start with "service." resourceFilter: /^service\./ }))], }); registerInstrumentations({ tracerProvider: tracerProvider, instrumentations: [ // Express instrumentation expects HTTP layer to be instrumented new HttpInstrumentation(), new FastifyInstrumentation(), ], }); // Initialize the OpenTelemetry APIs to use the NodeTracerProvider bindings tracerProvider.register(); const meterProvider = new MeterProvider({ resource: gcpResource, readers: [new PeriodicExportingMetricReader({ // Export metrics every second (default quota is 30,000 time series ingestion requests per minute) exportIntervalMillis: 1_000, exporter: new MetricExporter(), })], }); opentelemetry.metrics.setGlobalMeterProvider(meterProvider); }
- Volte ao terminal e abra o
index.js
novamente:cloudshell edit ~/codelab-o11y/index.js
- Substitua o código pela versão que inicializa o rastreamento e a coleta de métricas do OpenTelemetry e também atualiza o contador de desempenho em cada execução bem-sucedida. Para atualizar o código, exclua o conteúdo do arquivo e copie e cole o código abaixo:
const { VertexAI } = require('@google-cloud/vertexai'); const { GoogleAuth } = require('google-auth-library'); let generativeModel, traceIdPrefix; const auth = new GoogleAuth(); auth.getProjectId().then(result => { const vertex = new VertexAI({ project: result }); generativeModel = vertex.getGenerativeModel({ model: 'gemini-1.5-flash' }); traceIdPrefix = `projects/${result}/traces/`; }); // setup tracing and monitoring OTel providers const { setupTelemetry }= require('./setup'); setupTelemetry(); const { trace, context } = require('@opentelemetry/api'); function getCurrentSpan() { const current_span = trace.getSpan(context.active()); return { trace_id: current_span.spanContext().traceId, span_id: current_span.spanContext().spanId, flags: current_span.spanContext().traceFlags }; }; const opentelemetry = require("@opentelemetry/api"); const meter = opentelemetry.metrics.getMeter("genai-o11y/nodejs/workshop/example"); const counter = meter.createCounter("model_call_counter"); const fastify = require('fastify')(); const PORT = parseInt(process.env.PORT || '8080'); fastify.get('/', async function (request, reply) { const animal = request.query.animal || 'dog'; const prompt = `Give me 10 fun facts about ${animal}. Return this as html without backticks.` const resp = await generativeModel.generateContent(prompt) const span = getCurrentSpan(); console.log(JSON.stringify({ severity: 'DEBUG', message: 'Content is generated', animal: animal, prompt: prompt, response: resp.response, "logging.googleapis.com/trace": traceIdPrefix + span.trace_id, "logging.googleapis.com/spanId": span.span_id, })); counter.add(1, { animal: animal }); const html = resp.response.candidates[0].content.parts[0].text; reply.type('text/html').send(html); }); fastify.listen({ host: '0.0.0.0', port: PORT }, function (err, address) { if (err) { console.error(err); process.exit(1); } console.log(`codelab-genai: listening on ${address}`); });
Agora, o aplicativo usa o SDK do OpenTelemetry para instrumentar a execução do código com rastreamento e implementar a contagem de uma quantidade de execuções bem-sucedidas como uma métrica. O método main()
é modificado para configurar os exportadores do OpenTelemetry para que rastros e métricas sejam gravados diretamente no Google Cloud Tracing e Monitoring. Ele também executa outras configurações para preencher os rastros e as métricas coletados com metadados relacionados ao ambiente do Cloud Run. A função Handler()
é atualizada para incrementar o contador de métricas sempre que a chamada da API da Vertex AI retorna resultados válidos.
Depois de alguns segundos, o editor do Cloud Shell salva suas alterações automaticamente.
Implantar o código do aplicativo de IA generativa no Cloud Run
- Na janela do terminal, execute o comando para implantar o código-fonte do aplicativo no Cloud Run.
Se você receber uma mensagem como a abaixo, o comando vai criar um novo repositório. Clique emgcloud run deploy codelab-o11y-service \ --source="${HOME}/codelab-o11y/" \ --region=us-central1 \ --allow-unauthenticated
Enter
. O processo de implantação pode levar alguns minutos. Depois que o processo de implantação for concluído, você vai receber uma saída como esta:Deploying from source requires an Artifact Registry Docker repository to store built containers. A repository named [cloud-run-source-deploy] in region [us-central1] will be created. Do you want to continue (Y/n)?
Service [codelab-o11y-service] revision [codelab-o11y-service-00001-t2q] has been deployed and is serving 100 percent of traffic. Service URL: https://codelab-o11y-service-12345678901.us-central1.run.app
- Copie o URL do serviço do Cloud Run exibido para uma guia ou janela separada no navegador. Como alternativa, execute o comando a seguir no terminal para imprimir o URL do serviço e clique no URL mostrado enquanto pressiona a tecla Ctrl para abrir o URL:
Quando o URL é aberto, você pode receber um erro 500 ou a mensagem:gcloud run services list \ --format='value(URL)' \ --filter='SERVICE:"codelab-o11y-service"'
Isso significa que os serviços não concluíram a implantação. Aguarde alguns instantes e atualize a página. No final, você vai encontrar um texto que começa com Curiosidades sobre cães e contém 10 curiosidades sobre cães.Sorry, this is just a placeholder...
Para gerar dados de telemetria, abra o URL do serviço. Atualize a página enquanto muda o valor do parâmetro ?animal=
para obter resultados diferentes.
Analisar rastros de aplicativos
- Clique no botão abaixo para abrir a página do explorador de traces no console do Cloud:
- Selecione um dos rastros mais recentes. Você deve ver cinco ou seis spans que se parecem com a captura de tela abaixo.
- Encontre o período que rastreia a chamada para o manipulador de eventos (o método
fun_facts
). Será o último trecho com o nome/
. - No painel Detalhes do trace, selecione Registros e eventos. Você vai encontrar registros de aplicativos que se correlacionam a esse período específico. A correlação é detectada usando os IDs de trace e de período no trace e no registro. Você vai encontrar o registro do aplicativo que gravou a solicitação e a resposta da API Vertex.
Conhecer a métrica de contador
- Clique no botão abaixo para abrir a página do Metrics Explorer no console do Cloud:
- Na barra de ferramentas do painel do criador de consultas, selecione o botão < > MQL ou < > PromQL. Confira a imagem abaixo para ver a localização do botão.
- Verifique se PromQL está selecionado no botão de alternância Idioma. A alternância de idiomas está na mesma barra de ferramentas que permite formatar sua consulta.
- Insira sua consulta no editor Consultas:
sum(rate(workload_googleapis_com:model_call_counter{monitored_resource="generic_task"}[${__interval}]))
- Clique em Executar consulta.Quando a opção Execução automática está ativada, o botão Executar consulta não é mostrado.
11. (Opcional) Informações sensíveis ofuscadas dos registros
Na etapa 10, registramos informações sobre a interação do aplicativo com o modelo Gemini. Essas informações incluíam o nome do animal, o comando e a resposta do modelo. Embora o armazenamento dessas informações no registro seja seguro, isso não é necessário para muitos outros cenários. A solicitação pode incluir informações pessoais ou sensíveis que o usuário não quer que sejam armazenadas. Para resolver isso, você pode ofuscar os dados sensíveis gravados no Cloud Logging. Para minimizar as modificações no código, recomendamos a solução abaixo.
- Criar um tópico do Pub/Sub para armazenar entradas de registro recebidas
- Crie um coletor de registros que redirecione os registros ingeridos para o tópico do Pub/Sub.
- Crie um pipeline do Dataflow que modifique os registros redirecionados para o tópico do Pub/Sub seguindo estas etapas:
- Ler uma entrada de registro do tópico do PubSub
- Inspecione o payload da entrada em busca de informações sensíveis usando a API de inspeção de DLP.
- Edite as informações sensíveis no payload usando um dos métodos de edição da DLP.
- Gravar a entrada de registro ofuscada no Cloud Logging
- Implante o pipeline.
12. (Opcional) Limpar
Para evitar cobranças por recursos e APIs usados no codelab, é recomendável limpar o ambiente após o término do laboratório. A maneira mais fácil de evitar cobranças é excluindo o projeto criado para o codelab.
- Para excluir o projeto, execute o comando "delete project" no terminal:
A exclusão do projeto do Cloud interrompe o faturamento de todos os recursos e APIs usados nele. Você vai receber esta mensagem, em quePROJECT_ID=$(gcloud config get-value project) gcloud projects delete ${PROJECT_ID} --quiet
PROJECT_ID
será o ID do projeto:Deleted [https://cloudresourcemanager.googleapis.com/v1/projects/PROJECT_ID]. You can undo this operation for a limited period by running the command below. $ gcloud projects undelete PROJECT_ID See https://cloud.google.com/resource-manager/docs/creating-managing-projects for information on shutting down projects.
- (Opcional) Se você receber um erro, consulte a etapa 5 para encontrar o ID do projeto que você usou durante o laboratório. Substitua-o pelo comando na primeira instrução. Por exemplo, se o ID do projeto for
lab-example-project
, o comando será:gcloud projects delete lab-project-id-example --quiet
13. Parabéns
Neste laboratório, você criou um aplicativo de IA generativa que usa o modelo Gemini para fazer previsões. E instrumentou o aplicativo com recursos essenciais de monitoramento e geração de registros. Você implantou o aplicativo e fez alterações do código-fonte para o Cloud Run. Em seguida, use os produtos do Google Cloud Observability para acompanhar a performance do aplicativo e garantir a confiabilidade dele.
Se você tem interesse em participar de um estudo de pesquisa de experiência do usuário (UX) para melhorar os produtos com que trabalha hoje, faça sua inscrição aqui.
Confira algumas opções para continuar aprendendo:
- Codelab Como implantar um app de chat com tecnologia Gemini no Cloud Run
- Codelab Como usar chamadas de função do Gemini com o Cloud Run
- Como usar a API Video Intelligence do Cloud Run Jobs para processar um vídeo cena por cena
- Workshop sob demanda Google Kubernetes Engine Onboard
- Saiba como configurar métricas de contador e distribuição usando registros de aplicativos
- Gravar métricas OTLP usando um arquivo secundário do OpenTelemetry
- Referência sobre o uso do OpenTelemetry no Google Cloud