1. Présentation
Les applications d'IA générative nécessitent une observabilité comme toute autre application. Des techniques d'observabilité spéciales sont-elles requises pour l'IA générative ?
Dans cet atelier, vous allez créer une application d'IA générative simple. Déployez-la sur Cloud Run. et l'instrumenter avec des fonctionnalités de surveillance et de journalisation essentielles à l'aide des services et produits d'observabilité Google Cloud.
Objectifs de l'atelier
- Écrire une application qui utilise Vertex AI avec l'éditeur Cloud Shell
- Stocker le code de votre application dans GitHub
- Utiliser la CLI gcloud pour déployer le code source de votre application sur Cloud Run
- Ajouter des fonctionnalités de surveillance et de journalisation à votre application d'IA générative
- Utiliser des métriques basées sur les journaux
- Implémenter la journalisation et la surveillance avec le SDK Open Telemetry
- Obtenir des insights sur la gestion des données dans l'IA responsable
2. Prérequis
Si vous ne possédez pas encore de compte Google, vous devez en créer un.
3. Configuration du projet
- Connectez-vous à la console Google Cloud avec votre compte Google.
- Créez un projet ou choisissez de réutiliser un projet existant. Notez l'ID du projet que vous venez de créer ou de sélectionner.
- Activez la facturation pour le projet.
- La réalisation de cet atelier devrait vous coûter moins de 5 $.
- Vous pouvez suivre les étapes à la fin de cet atelier pour supprimer des ressources afin d'éviter d'autres frais.
- Les nouveaux utilisateurs peuvent bénéficier d'un essai sans frais pour bénéficier d'un crédit de 300$.
- Vérifiez que la facturation est activée dans Mes projets dans la facturation Cloud.
- Si la colonne
Billing account
indiqueBilling is disabled
pour votre nouveau projet:- Cliquez sur les trois points dans la colonne
Actions
. - Cliquez sur Modifier la facturation.
- Sélectionnez le compte de facturation que vous souhaitez utiliser.
- Cliquez sur les trois points dans la colonne
- Si vous participez à un événement en direct, le compte est probablement nommé Compte de facturation d'essai de Google Cloud Platform.
- Si la colonne
4. Préparer l'éditeur Cloud Shell
- Accédez à l'éditeur Cloud Shell. Si le message suivant s'affiche, vous demandant d'autoriser Cloud Shell à appeler gcloud avec vos identifiants, cliquez sur Autoriser pour continuer.
- Ouvrir une fenêtre de terminal
- Cliquez sur le menu hamburger
.
- Cliquez sur Terminal
- Cliquez sur Nouveau terminal
.
- Cliquez sur le menu hamburger
- Dans le terminal, configurez votre ID de projet:
Remplacezgcloud config set project [PROJECT_ID]
[PROJECT_ID]
par l'ID de votre projet. Par exemple, si l'ID de votre projet estlab-example-project
, la commande est la suivante: Si le message suivant s'affiche, indiquant que gcloud demande vos identifiants à l'API GCPI, cliquez sur Autoriser pour continuer.gcloud config set project lab-project-id-example
Une fois l'exécution terminée, le message suivant s'affiche: Si unUpdated property [core/project].
WARNING
s'affiche et que vous êtes invité à saisirDo you want to continue (Y/N)?
, vous avez probablement saisi l'ID de projet de manière incorrecte. Appuyez surN
, puis surEnter
, puis essayez d'exécuter à nouveau la commandegcloud config set project
une fois que vous avez trouvé l'ID de projet correct. - (Facultatif) Si vous ne parvenez pas à trouver l'ID de projet, exécutez la commande suivante pour afficher l'ID de tous vos projets triés par date de création, dans l'ordre décroissant:
gcloud projects list \ --format='value(projectId,createTime)' \ --sort-by=~createTime
5. Activer les API Google
Dans le terminal, activez les API Google requises pour cet atelier:
gcloud services enable \
run.googleapis.com \
cloudbuild.googleapis.com \
aiplatform.googleapis.com \
logging.googleapis.com \
monitoring.googleapis.com \
cloudtrace.googleapis.com
L'exécution de cette commande peut prendre un certain temps. Un message semblable à celui-ci s'affiche pour vous indiquer que l'opération s'est correctement déroulée:
Operation "operations/acf.p2-73d90d00-47ee-447a-b600" finished successfully.
Si vous recevez un message d'erreur commençant par ERROR: (gcloud.services.enable) HttpError accessing
et contenant des détails d'erreur comme indiqué ci-dessous, réessayez la commande après un délai de 1 à 2 minutes.
"error": { "code": 429, "message": "Quota exceeded for quota metric 'Mutate requests' and limit 'Mutate requests per minute' of service 'serviceusage.googleapis.com' ...", "status": "RESOURCE_EXHAUSTED", ... }
6. Créer une application Node.js d'IA générative
À cette étape, vous allez écrire le code de l'application simple basée sur les requêtes qui utilise le modèle Gemini pour afficher 10 faits amusants sur un animal de votre choix. Pour créer le code de l'application, procédez comme suit :
- Dans le terminal, créez le répertoire
codelab-o11y
:mkdir ~/codelab-o11y
- Définissez le répertoire actuel sur
codelab-o11y
:cd ~/codelab-o11y
- Initialisez
package.json
de l'application NodeJS:npm init -y
- Installez le package
fastify
:npm install fastify
- Installez les packages du SDK Cloud pour l'authentification et l'utilisation de Vertex AI:
npm install google-auth-library @google-cloud/vertexai
- Créez un fichier
index.js
et ouvrez-le dans l'éditeur Cloud Shell: Un fichier vide devrait maintenant s'afficher dans la fenêtre de l'éditeur au-dessus du terminal. Votre écran ressemblera à ceci:cloudshell edit index.js
- Copiez le code suivant et collez-le dans le fichier
index.js
ouvert: Au bout de quelques secondes, l'éditeur Cloud Shell enregistre automatiquement votre code.const { VertexAI } = require('@google-cloud/vertexai'); const { GoogleAuth } = require('google-auth-library'); let generativeModel; const auth = new GoogleAuth(); auth.getProjectId().then(result => { const vertex = new VertexAI({ project: result }); generativeModel = vertex.getGenerativeModel({ model: 'gemini-1.5-flash' }); }); const fastify = require('fastify')(); const PORT = parseInt(process.env.PORT || '8080'); fastify.get('/', async function (request, reply) { const animal = request.query.animal || 'dog'; const prompt = `Give me 10 fun facts about ${animal}. Return this as html without backticks.` const resp = await generativeModel.generateContent(prompt); const html = resp.response.candidates[0].content.parts[0].text; reply.type('text/html').send(html); }) fastify.listen({ host: '0.0.0.0', port: PORT }, function (err, address) { if (err) { console.error(err); process.exit(1); } console.log(`codelab-genai: listening on ${address}`); })
Déployer le code de l'application d'IA générative sur Cloud Run
- Dans la fenêtre du terminal, exécutez la commande pour déployer le code source de l'application sur Cloud Run.
Si l'invite ci-dessous s'affiche, vous êtes informé que la commande créera un dépôt. Cliquez surgcloud run deploy codelab-o11y-service \ --source="${HOME}/codelab-o11y/" \ --region=us-central1 \ --allow-unauthenticated
Enter
. Le processus de déploiement peut prendre jusqu'à quelques minutes. Une fois le processus de déploiement terminé, le résultat affiché doit ressembler à l'exemple suivant:Deploying from source requires an Artifact Registry Docker repository to store built containers. A repository named [cloud-run-source-deploy] in region [us-central1] will be created. Do you want to continue (Y/n)?
Service [codelab-o11y-service] revision [codelab-o11y-service-00001-t2q] has been deployed and is serving 100 percent of traffic. Service URL: https://codelab-o11y-service-12345678901.us-central1.run.app
- Copiez l'URL du service Cloud Run affichée dans un onglet ou une fenêtre distincts de votre navigateur. Vous pouvez également exécuter la commande suivante dans le terminal pour imprimer l'URL du service, puis cliquer sur l'URL affichée en maintenant la touche Ctrl enfoncée pour l'ouvrir:
Lorsque l'URL est ouverte, une erreur 500 ou le message suivant peuvent s'afficher:gcloud run services list \ --format='value(URL)' \ --filter='SERVICE:"codelab-o11y-service"'
Cela signifie que le déploiement des services n'est pas terminé. Patientez quelques instants, puis actualisez la page. À la fin, un texte commençant par Anecdotes amusantes sur les chiens s'affiche, contenant 10 anecdotes amusantes sur les chiens.Sorry, this is just a placeholder...
Essayez d'interagir avec l'application pour obtenir des anecdotes sur différents animaux. Pour ce faire, ajoutez le paramètre animal
à l'URL, comme ?animal=[ANIMAL]
, où [ANIMAL]
est un nom d'animal. Par exemple, ajoutez ?animal=cat
pour obtenir 10 faits amusants sur les chats ou ?animal=sea turtle
pour obtenir 10 faits amusants sur les tortues marines.
7. Auditer vos appels d'API Vertex
L'audit des appels d'API Google permet de répondre à des questions telles que "Qui appelle une API particulière, où et quand ?". L'audit est important lorsque vous dépannez votre application, examinez la consommation de ressources ou effectuez une analyse logicielle.
Les journaux d'audit vous permettent de suivre les activités administratives et système, ainsi que d'enregistrer les appels aux opérations d'API "lecture de données" et "écriture de données". Pour auditer les requêtes Vertex AI visant à générer du contenu, vous devez activer les journaux d'audit "Lecture des données" dans la console Cloud.
- Cliquez sur le bouton ci-dessous pour ouvrir la page "Journaux d'audit" dans la console Cloud.
- Assurez-vous que le projet que vous avez créé pour cet atelier est sélectionné sur la page. Le projet sélectionné s'affiche en haut à gauche de la page, à droite du menu hamburger:
Si nécessaire, sélectionnez le bon projet dans la liste déroulante. - Dans le tableau Configuration des journaux d'audit des accès aux données, dans la colonne "Service", recherchez le service
Vertex AI API
, puis cochez la case située à gauche de son nom. - Dans le panneau d'informations à droite, sélectionnez le type d'audit "Lecture des données".
- Cliquez sur Enregistrer.
Pour générer des journaux d'audit, ouvrez l'URL du service. Actualisez la page en modifiant la valeur du paramètre ?animal=
pour obtenir des résultats différents.
Explorer les journaux d'audit
- Cliquez sur le bouton ci-dessous pour ouvrir la page de l'explorateur de journaux dans la console Cloud:
- Collez le filtre suivant dans le volet "Requête".
Le volet "Requête" est un éditeur situé en haut de la page de l'explorateur de journaux:LOG_ID("cloudaudit.googleapis.com%2Fdata_access") AND protoPayload.serviceName="aiplatform.googleapis.com"
- Cliquez sur Exécuter la requête.
- Sélectionnez l'une des entrées du journal d'audit et développez les champs pour inspecter les informations capturées dans le journal.
Vous pouvez consulter des informations détaillées sur l'appel de l'API Vertex, y compris la méthode et le modèle utilisés. Vous pouvez également voir l'identité de l'appelant et les autorisations qui ont autorisé l'appel.
8. Journaliser les interactions avec l'IA générative
Vous ne trouvez pas de paramètres de requête d'API ni de données de réponse dans les journaux d'audit. Toutefois, ces informations peuvent être importantes pour résoudre les problèmes d'analyse des applications et des workflows. À cette étape, nous allons combler cette lacune en ajoutant la journalisation de l'application. La journalisation utilise la méthode de journalisation standard de console.log
NodeJS pour écrire des journaux structurés dans la sortie standard. Cette méthode utilise la capacité de Cloud Run à capturer les informations imprimées dans la sortie standard et à les ingérer automatiquement dans Cloud Logging. Pour capturer correctement les journaux structurés, le journal imprimé doit être mis en forme en conséquence. Suivez les instructions ci-dessous pour ajouter des fonctionnalités de journalisation structurée à notre application Node.js.
- Revenez à la fenêtre (ou à l'onglet) "Cloud Shell" dans votre navigateur.
- Dans le terminal, rouvrez
index.js
:cloudshell edit ~/codelab-o11y/index.js
- Pour enregistrer la réponse du modèle, procédez comme suit:
- Recherchez l'appel de
await generativeModel.generateContent()
(à la ligne 20). - Copiez et collez le code ci-dessous au début de la ligne suivante.
console.log(JSON.stringify({ severity: 'DEBUG', message: 'Content is generated', animal: animal, prompt: prompt, response: resp.response, }));
- Recherchez l'appel de
La fonction de gestionnaire est modifiée pour appeler console.log()
afin d'imprimer la structure JSON dont le schéma suit les consignes de mise en forme structurée. Le journal enregistre le paramètre animal de la requête, ainsi que l'invite et la réponse du modèle.
Au bout de quelques secondes, l'éditeur Cloud Shell enregistre automatiquement vos modifications.
Déployer le code de l'application d'IA générative sur Cloud Run
- Dans la fenêtre du terminal, exécutez la commande pour déployer le code source de l'application sur Cloud Run.
Si l'invite ci-dessous s'affiche, vous êtes informé que la commande créera un dépôt. Cliquez surgcloud run deploy codelab-o11y-service \ --source="${HOME}/codelab-o11y/" \ --region=us-central1 \ --allow-unauthenticated
Enter
. Le processus de déploiement peut prendre jusqu'à quelques minutes. Une fois le processus de déploiement terminé, le résultat affiché doit ressembler à l'exemple suivant:Deploying from source requires an Artifact Registry Docker repository to store built containers. A repository named [cloud-run-source-deploy] in region [us-central1] will be created. Do you want to continue (Y/n)?
Service [codelab-o11y-service] revision [codelab-o11y-service-00001-t2q] has been deployed and is serving 100 percent of traffic. Service URL: https://codelab-o11y-service-12345678901.us-central1.run.app
- Copiez l'URL du service Cloud Run affichée dans un onglet ou une fenêtre distincts de votre navigateur. Vous pouvez également exécuter la commande suivante dans le terminal pour imprimer l'URL du service, puis cliquer sur l'URL affichée en maintenant la touche Ctrl enfoncée pour l'ouvrir:
Lorsque l'URL est ouverte, une erreur 500 ou le message suivant peuvent s'afficher:gcloud run services list \ --format='value(URL)' \ --filter='SERVICE:"codelab-o11y-service"'
Cela signifie que le déploiement des services n'est pas terminé. Patientez quelques instants, puis actualisez la page. À la fin, un texte commençant par Anecdotes amusantes sur les chiens s'affiche, contenant 10 anecdotes amusantes sur les chiens.Sorry, this is just a placeholder...
Pour générer des journaux d'application, ouvrez l'URL du service. Actualisez la page en modifiant la valeur du paramètre ?animal=
pour obtenir des résultats différents.
Pour afficher les journaux de l'application, procédez comme suit:
- Cliquez sur le bouton ci-dessous pour ouvrir la page de l'explorateur de journaux dans la console Cloud:
- Collez le filtre suivant dans le volet "Requête" (numéro 2 dans l'interface de l'explorateur de journaux):
LOG_ID("run.googleapis.com%2Fstdout") AND severity=DEBUG
- Cliquez sur Exécuter la requête.
Le résultat de la requête affiche les journaux avec la requête et la réponse Vertex AI, y compris les évaluations de sécurité.
9. Compter les interactions avec l'IA générative
Cloud Run écrit des métriques gérées qui peuvent être utilisées pour surveiller les services déployés. Les métriques de surveillance gérées par l'utilisateur offrent un meilleur contrôle des données et de la fréquence de mise à jour des métriques. Pour implémenter une telle métrique, vous devez écrire un code qui collecte les données et les écrit dans Cloud Monitoring. Consultez l'étape suivante (facultative) pour découvrir comment l'implémenter à l'aide du SDK OpenTelemetry.
Cette étape présente une alternative à l'implémentation de la métrique utilisateur dans le code : les métriques basées sur les journaux. Les métriques basées sur les journaux vous permettent de générer des métriques de surveillance à partir des entrées de journal que votre application écrit dans Cloud Logging. Nous allons utiliser les journaux d'application que nous avons implémentés à l'étape précédente pour définir une métrique basée sur les journaux de type compteur. La métrique comptabilise le nombre d'appels réussis à l'API Vertex.
- Examinez la fenêtre de l'explorateur de journaux que nous avons utilisée à l'étape précédente. Dans le volet "Requête", recherchez le menu déroulant Actions, puis cliquez dessus pour l'ouvrir. Pour trouver le menu, consultez la capture d'écran ci-dessous:
- Dans le menu qui s'ouvre, sélectionnez Créer une métrique pour ouvrir le panneau Créer une métrique basée sur les journaux.
- Pour configurer une métrique de compteur dans le panneau Créer une métrique basée sur les journaux, procédez comme suit:
- Définissez le Type de métrique : sélectionnez Compteur.
- Définissez les champs suivants dans la section Détails:
- Nom de la métrique de journal: définissez le nom sur
model_interaction_count
. Certaines restrictions en termes de dénomination s'appliquent. Pour en savoir plus, consultez la section Dépannage des restrictions de dénomination. - Description : saisissez une description de la métrique. Par exemple,
Number of log entries capturing successful call to model inference.
. - Unités: laissez ce champ vide ou insérez le chiffre
1
.
- Nom de la métrique de journal: définissez le nom sur
- Laissez les valeurs dans la section Sélection du filtre. Notez que le champ Créer un filtre contient le même filtre que celui que nous avons utilisé pour afficher les journaux d'application.
- (Facultatif) Ajoutez un libellé qui permet de comptabiliser le nombre d'appels pour chaque animal. REMARQUE: ce libellé peut considérablement augmenter la cardinalité de la métrique et n'est pas recommandé pour une utilisation en production:
- Cliquez sur Ajouter une étiquette.
- Définissez les champs suivants dans la section Libellés:
- Nom du libellé: définissez le nom sur
animal
. - Description: saisissez la description du libellé. Exemple :
Animal parameter
- Type de libellé: sélectionnez
STRING
. - Nom du champ: saisissez
jsonPayload.animal
. - Expression régulière: laissez ce champ vide.
- Nom du libellé: définissez le nom sur
- Cliquez sur Terminé.
- Cliquez sur Créer une métrique pour créer la métrique.
Vous pouvez également créer une métrique basée sur les journaux à partir de la page Métriques basées sur les journaux, à l'aide de la commande CLI gcloud logging metrics create
ou avec la ressource Terraform google_logging_metric
.
Pour générer des données de métriques, ouvrez l'URL du service. Actualisez la page ouverte plusieurs fois pour effectuer plusieurs appels au modèle. Comme précédemment, essayez d'utiliser différents animaux dans le paramètre.
Saisissez la requête PromQL pour rechercher les données de métrique basées sur les journaux. Pour saisir une requête PromQL, procédez comme suit:
- Cliquez sur le bouton ci-dessous pour ouvrir la page "Explorateur de métriques" dans la console Cloud:
- Dans la barre d'outils du volet de création de requêtes, sélectionnez le bouton nommé < > MQL ou < > PromQL. Consultez l'image ci-dessous pour connaître l'emplacement du bouton.
- Vérifiez que PromQL est sélectionné dans le bouton d'activation Langage. Le bouton de langage se trouve dans la barre d'outils qui vous permet de mettre en forme votre requête.
- Saisissez votre requête dans l'éditeur Requêtes:
Pour en savoir plus sur l'utilisation de PromQL, consultez PromQL dans Cloud Monitoring.sum(rate(logging_googleapis_com:user_model_interaction_count{monitored_resource="cloud_run_revision"}[${__interval}]))
- Cliquez sur Exécuter la requête. Un graphique linéaire semblable à celui-ci s'affiche:
Notez que lorsque l'option Exécution automatique est activée, le bouton Exécuter la requête ne s'affiche pas.
10. (Facultatif) Utiliser Open Telemetry pour la surveillance et le traçage
Comme indiqué à l'étape précédente, il est possible d'implémenter des métriques à l'aide du SDK OpenTelemetry (Otel). L'utilisation d'OTel sur les architectures de microservices est une pratique recommandée. Cette étape décrit les éléments suivants:
- Initialisation des composants OTel pour prendre en charge le traçage et la surveillance de l'application
- Renseigner la configuration OTel avec les métadonnées de ressources de l'environnement Cloud Run
- Instrumenter une application Flask avec des fonctionnalités de traçage automatique
- Implémenter une métrique de compteur pour surveiller le nombre d'appels de modèle réussis
- Corréler le traçage avec les journaux d'application
L'architecture recommandée pour les services au niveau du produit consiste à utiliser le collecteur OTel pour collecter et ingérer toutes les données d'observabilité d'un ou de plusieurs services. Par souci de simplicité, le code de cette étape n'utilise pas le collecteur. Il utilise plutôt des exportations OTel qui écrivent des données directement dans Google Cloud.
Configurer les composants OTel pour le traçage et la surveillance des métriques
- Revenez à la fenêtre (ou à l'onglet) "Cloud Shell" dans votre navigateur.
- Installez les packages requis pour utiliser l'instrumentation automatique OpenTelemetry:
npm install @opentelemetry/sdk-node \ @opentelemetry/api \ @opentelemetry/auto-instrumentations-node \ @opentelemetry/instrumentation-express \ @opentelemetry/instrumentation-http \ @opentelemetry/sdk-metrics \ @opentelemetry/sdk-trace-node \ @google-cloud/opentelemetry-cloud-trace-exporter \ @google-cloud/opentelemetry-cloud-monitoring-exporter \ @google-cloud/opentelemetry-resource-util
- Dans le terminal, créez un fichier
setup.js
:cloudshell edit ~/codelab-o11y/setup.js
- Copiez et collez le code ci-dessous dans l'éditeur pour configurer le traçage et la surveillance OpenTelemetry.
const opentelemetry = require("@opentelemetry/api"); const { registerInstrumentations } = require('@opentelemetry/instrumentation'); const { NodeTracerProvider } = require('@opentelemetry/sdk-trace-node'); const { MeterProvider, PeriodicExportingMetricReader } = require("@opentelemetry/sdk-metrics"); const { AlwaysOnSampler, SimpleSpanProcessor } = require('@opentelemetry/sdk-trace-base'); const { Resource } = require('@opentelemetry/resources'); const { ATTR_SERVICE_NAME } = require('@opentelemetry/semantic-conventions'); const { FastifyInstrumentation } = require('@opentelemetry/instrumentation-fastify'); const { HttpInstrumentation } = require('@opentelemetry/instrumentation-http'); const { TraceExporter } = require("@google-cloud/opentelemetry-cloud-trace-exporter"); const { MetricExporter } = require("@google-cloud/opentelemetry-cloud-monitoring-exporter"); const { GcpDetectorSync } = require("@google-cloud/opentelemetry-resource-util"); module.exports = { setupTelemetry }; function setupTelemetry() { const gcpResource = new Resource({ [ATTR_SERVICE_NAME]: process.env.K_SERVICE, }).merge(new GcpDetectorSync().detect()) const tracerProvider = new NodeTracerProvider({ resource: gcpResource, sampler: new AlwaysOnSampler(), spanProcessors: [new SimpleSpanProcessor(new TraceExporter({ // will export all resource attributes that start with "service." resourceFilter: /^service\./ }))], }); registerInstrumentations({ tracerProvider: tracerProvider, instrumentations: [ // Express instrumentation expects HTTP layer to be instrumented new HttpInstrumentation(), new FastifyInstrumentation(), ], }); // Initialize the OpenTelemetry APIs to use the NodeTracerProvider bindings tracerProvider.register(); const meterProvider = new MeterProvider({ resource: gcpResource, readers: [new PeriodicExportingMetricReader({ // Export metrics every second (default quota is 30,000 time series ingestion requests per minute) exportIntervalMillis: 1_000, exporter: new MetricExporter(), })], }); opentelemetry.metrics.setGlobalMeterProvider(meterProvider); }
- Revenez au terminal et rouvrez
index.js
:cloudshell edit ~/codelab-o11y/index.js
- Remplacez le code par la version qui initialise le traçage OpenTelemetry et la collecte de métriques, et qui met également à jour le compteur de performances à chaque exécution réussie. Pour mettre à jour le code, supprimez le contenu du fichier, puis copiez et collez le code ci-dessous:
const { VertexAI } = require('@google-cloud/vertexai'); const { GoogleAuth } = require('google-auth-library'); let generativeModel, traceIdPrefix; const auth = new GoogleAuth(); auth.getProjectId().then(result => { const vertex = new VertexAI({ project: result }); generativeModel = vertex.getGenerativeModel({ model: 'gemini-1.5-flash' }); traceIdPrefix = `projects/${result}/traces/`; }); // setup tracing and monitoring OTel providers const { setupTelemetry }= require('./setup'); setupTelemetry(); const { trace, context } = require('@opentelemetry/api'); function getCurrentSpan() { const current_span = trace.getSpan(context.active()); return { trace_id: current_span.spanContext().traceId, span_id: current_span.spanContext().spanId, flags: current_span.spanContext().traceFlags }; }; const opentelemetry = require("@opentelemetry/api"); const meter = opentelemetry.metrics.getMeter("genai-o11y/nodejs/workshop/example"); const counter = meter.createCounter("model_call_counter"); const fastify = require('fastify')(); const PORT = parseInt(process.env.PORT || '8080'); fastify.get('/', async function (request, reply) { const animal = request.query.animal || 'dog'; const prompt = `Give me 10 fun facts about ${animal}. Return this as html without backticks.` const resp = await generativeModel.generateContent(prompt) const span = getCurrentSpan(); console.log(JSON.stringify({ severity: 'DEBUG', message: 'Content is generated', animal: animal, prompt: prompt, response: resp.response, "logging.googleapis.com/trace": traceIdPrefix + span.trace_id, "logging.googleapis.com/spanId": span.span_id, })); counter.add(1, { animal: animal }); const html = resp.response.candidates[0].content.parts[0].text; reply.type('text/html').send(html); }); fastify.listen({ host: '0.0.0.0', port: PORT }, function (err, address) { if (err) { console.error(err); process.exit(1); } console.log(`codelab-genai: listening on ${address}`); });
L'application utilise désormais le SDK OpenTelemetry pour instrumenter l'exécution du code avec le traçage et pour implémenter le comptage d'un nombre d'exécutions réussies en tant que métrique. La méthode main()
est modifiée pour configurer les exportateurs OpenTelemetry afin que les traces et les métriques soient écrites directement dans Google Cloud Tracing et Monitoring. Il effectue également des configurations supplémentaires pour renseigner les traces et les métriques collectées avec des métadonnées liées à l'environnement Cloud Run. La fonction Handler()
est mise à jour pour incrémenter le compteur de métriques chaque fois que l'appel de l'API Vertex AI renvoie des résultats valides.
Au bout de quelques secondes, l'éditeur Cloud Shell enregistre automatiquement vos modifications.
Déployer le code de l'application d'IA générative sur Cloud Run
- Dans la fenêtre du terminal, exécutez la commande pour déployer le code source de l'application sur Cloud Run.
Si l'invite ci-dessous s'affiche, vous êtes informé que la commande créera un dépôt. Cliquez surgcloud run deploy codelab-o11y-service \ --source="${HOME}/codelab-o11y/" \ --region=us-central1 \ --allow-unauthenticated
Enter
. Le processus de déploiement peut prendre jusqu'à quelques minutes. Une fois le processus de déploiement terminé, le résultat affiché doit ressembler à l'exemple suivant:Deploying from source requires an Artifact Registry Docker repository to store built containers. A repository named [cloud-run-source-deploy] in region [us-central1] will be created. Do you want to continue (Y/n)?
Service [codelab-o11y-service] revision [codelab-o11y-service-00001-t2q] has been deployed and is serving 100 percent of traffic. Service URL: https://codelab-o11y-service-12345678901.us-central1.run.app
- Copiez l'URL du service Cloud Run affichée dans un onglet ou une fenêtre distincts de votre navigateur. Vous pouvez également exécuter la commande suivante dans le terminal pour imprimer l'URL du service, puis cliquer sur l'URL affichée en maintenant la touche Ctrl enfoncée pour l'ouvrir:
Lorsque l'URL est ouverte, une erreur 500 ou le message suivant peuvent s'afficher:gcloud run services list \ --format='value(URL)' \ --filter='SERVICE:"codelab-o11y-service"'
Cela signifie que le déploiement des services n'est pas terminé. Patientez quelques instants, puis actualisez la page. À la fin, un texte commençant par Anecdotes amusantes sur les chiens s'affiche, contenant 10 anecdotes amusantes sur les chiens.Sorry, this is just a placeholder...
Pour générer des données de télémétrie, ouvrez l'URL du service. Actualisez la page en modifiant la valeur du paramètre ?animal=
pour obtenir des résultats différents.
Explorer les traces d'application
- Cliquez sur le bouton ci-dessous pour ouvrir la page de l'explorateur Trace dans la console Cloud:
- Sélectionnez l'une des traces les plus récentes. Vous devriez voir cinq ou six segments qui ressemblent à la capture d'écran ci-dessous.
- Recherchez le délai qui suit l'appel du gestionnaire d'événements (la méthode
fun_facts
). Il s'agit de la dernière span avec le nom/
. - Dans le volet Détails de la trace, sélectionnez Journaux et événements. Les journaux d'application correspondant à ce segment s'affichent. La corrélation est détectée à l'aide des ID de trace et de délai dans la trace et dans le journal. Vous devriez voir le journal de l'application qui a écrit l'invite et la réponse de l'API Vertex.
Explorer la métrique de compteur
- Cliquez sur le bouton ci-dessous pour ouvrir la page "Explorateur de métriques" dans la console Cloud:
- Dans la barre d'outils du volet de création de requêtes, sélectionnez le bouton nommé < > MQL ou < > PromQL. Consultez l'image ci-dessous pour connaître l'emplacement du bouton.
- Vérifiez que PromQL est sélectionné dans le bouton d'activation Langage. Le bouton de langage se trouve dans la barre d'outils qui vous permet de mettre en forme votre requête.
- Saisissez votre requête dans l'éditeur Requêtes:
sum(rate(workload_googleapis_com:model_call_counter{monitored_resource="generic_task"}[${__interval}]))
- Cliquez sur Exécuter la requête.Lorsque l'option Exécution automatique est activée, le bouton Exécuter la requête ne s'affiche pas.
11. (Facultatif) Informations sensibles masquées dans les journaux
À l'étape 10, nous avons enregistré des informations sur l'interaction de l'application avec le modèle Gemini. Ces informations incluaient le nom de l'animal, la requête réelle et la réponse du modèle. Bien que le stockage de ces informations dans le journal soit sécurisé, ce n'est pas nécessairement vrai pour de nombreux autres scénarios. L'invite peut inclure des informations personnelles ou sensibles que l'utilisateur ne souhaite pas stocker. Pour y remédier, vous pouvez obscurcir les données sensibles écrites dans Cloud Logging. Pour réduire les modifications de code, nous vous recommandons la solution suivante.
- Créer un sujet Pub/Sub pour stocker les entrées de journal entrantes
- Créez un récepteur de journaux qui redirige les journaux ingérés vers un sujet Pub/Sub.
- Créez un pipeline Dataflow qui modifie les journaux redirigés vers un sujet Pub/Sub en procédant comme suit:
- Lire une entrée de journal à partir du sujet Pub/Sub
- Inspecter la charge utile de l'entrée pour détecter les informations sensibles à l'aide de l'API d'inspection DLP
- Masquer les informations sensibles dans la charge utile à l'aide de l'une des méthodes de masquage DLP
- Écrire l'entrée de journal masquée dans Cloud Logging
- Déployer le pipeline
12. (Facultatif) Effectuer un nettoyage
Pour éviter que les ressources et les API utilisées dans l'atelier de programmation ne soient facturées sur votre compte, nous vous recommandons de nettoyer l'environnement une fois l'atelier terminé. Le moyen le plus simple d'arrêter la facturation est de supprimer le projet que vous avez créé pour l'atelier de programmation.
- Pour supprimer le projet, exécutez la commande de suppression du projet dans le terminal:
La suppression de votre projet Cloud arrête la facturation de toutes les ressources et API utilisées dans ce projet. Le message suivant doit s'afficher, oùPROJECT_ID=$(gcloud config get-value project) gcloud projects delete ${PROJECT_ID} --quiet
PROJECT_ID
correspond à l'ID de votre projet:Deleted [https://cloudresourcemanager.googleapis.com/v1/projects/PROJECT_ID]. You can undo this operation for a limited period by running the command below. $ gcloud projects undelete PROJECT_ID See https://cloud.google.com/resource-manager/docs/creating-managing-projects for information on shutting down projects.
- (Facultatif) Si un message d'erreur s'affiche, consultez l'étape 5 pour trouver l'ID de projet que vous avez utilisé pendant l'atelier. Remplacez-la par la commande de la première instruction. Par exemple, si l'ID de votre projet est
lab-example-project
, la commande est la suivante:gcloud projects delete lab-project-id-example --quiet
13. Félicitations
Dans cet atelier, vous avez créé une application d'IA générative qui utilise le modèle Gemini pour effectuer des prédictions. et a instrumenté l'application avec des fonctionnalités de surveillance et de journalisation essentielles. Vous avez déployé l'application et les modifications du code source vers Cloud Run. Vous utiliserez ensuite les produits Google Cloud Observability pour suivre les performances de l'application afin de vous assurer de sa fiabilité.
Si vous souhaitez participer à une étude de recherche sur l'expérience utilisateur (UX) afin d'améliorer les produits que vous avez utilisés aujourd'hui, inscrivez-vous ici.
Voici quelques options pour poursuivre votre apprentissage:
- Atelier de programmation Déployer une application de chat basée sur Gemini sur Cloud Run
- Atelier de programmation Utiliser l'appel de fonction Gemini avec Cloud Run
- Utiliser l'API Video Intelligence pour Cloud Run Jobs afin de traiter une vidéo scène par scène
- Atelier à la demande Intégration de Google Kubernetes Engine
- Découvrez comment configurer les métriques de compteur et de distribution à l'aide des journaux d'application.
- Écrire des métriques OTLP à l'aide d'un side-car OpenTelemetry
- Documentation de référence sur l'utilisation d'Open Telemetry dans Google Cloud