1. Einführung
In diesem Codelab wird gezeigt, wie Sie eine Cloud Functions-Funktion aufrufen, die das Vertex AI-Modul initialisiert und dann einen Endpunkt zum Aufrufen des PaLM Text Bison-Modells bereitstellt. Diese Cloud Functions-Funktion ist in Python geschrieben. Liste der verwendeten Dienste:
- Cloud Functions
- Vertex AI PaLM API
Was Sie erstellen
Sie erstellen und stellen eine Cloud Functions-Funktion bereit, die einen Endpunkt zum Aufrufen des PaLM Text Bison-Modells bereitstellt.
2. Voraussetzungen
3. Hinweis
- Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.
- Achten Sie darauf, dass die Abrechnung für Ihr Google Cloud-Projekt aktiviert ist. Informationen zum Prüfen, ob die Abrechnung für ein Projekt aktiviert ist
- Aktivieren Sie Cloud Shell in der Google Cloud Console. Folgen Sie dazu dieser Anleitung hier.
- Wenn Ihr Projekt nicht festgelegt ist, legen Sie es mit dem folgenden Befehl fest:
gcloud config set project <YOUR_PROJECT_ID>
- Legen Sie in Cloud Shell die folgenden Umgebungsvariablen fest:
export GCP_PROJECT=<YOUR_PROJECT_ID>
export GCP_REGION=us-central1
- Aktivieren Sie die erforderlichen Google Cloud APIs, indem Sie die folgenden Befehle im Cloud Shell-Terminal ausführen:
gcloud services enable cloudbuild.googleapis.com cloudfunctions.googleapis.com run.googleapis.com logging.googleapis.com storage-component.googleapis.com aiplatform.googleapis.com
4. Cloud Functions-Funktion bereitstellen
So erstellen und stellen Sie Cloud Functions bereit:
- Klonen Sie den Code aus dem Repository https://github.com/rominirani/genai-apptemplates-googlecloud, indem Sie den folgenden Befehl im Cloud Shell-Terminal ausführen:
git clone https://github.com/rominirani/genai-apptemplates-googlecloud
- Mit diesem Befehl werden die Repository-Inhalte in den Ordner „genai-templates-googlecloud“ geklont.
- Wechseln Sie zum Ordner des gewünschten Projekts, indem Sie den folgenden Befehl im Cloud Shell-Terminal ausführen:
cd genai-apptemplates-googlecloud/text-predict-cloudfunction
- Die Dateien „main.py“ und „requirements.txt “ sollten im Ordner „text-predict-cloudfunction“ angezeigt werden. Führen Sie dazu den Befehl „dir“ aus oder wechseln Sie zum Cloud Shell-Editor.
- Stellen Sie die Cloud Functions-Funktion mit dem Befehl „gcloud functions deploy“ bereit:
gcloud functions deploy predictText --gen2 --runtime=python311 --region=$GCP_REGION --source=. --entry-point=predictText --trigger-http --set-env-vars=GCP_PROJECT=$GCP_PROJECT,GCP_REGION=$GCP_REGION --allow-unauthenticated --max-instances=1
Nachdem Sie die Cloud Functions-Funktion bereitgestellt haben, wird die URL der bereitgestellten Cloud Functions-Funktion im Cloud Shell-Terminal angezeigt. Die URL hat das folgende Format:
https://$GCP_REGION-$GCP_PROJECT.cloudfunctions.net/predictText
5. Cloud Functions-Funktion aufrufen
Da diese Cloud Functions-Funktion mit einem HTTP-Trigger bereitgestellt wird, können Sie sie direkt aufrufen. Beispielaufruf:
curl -m 70 -X POST https://$GCP_REGION-$GCP_PROJECT.cloudfunctions.net/predictText \
-H "Content-Type: application/json" \
-d '{
"prompt": "What are the best places to visit in the United States?"
}'
Sie erhalten folgende Ausgabe:

6. Bereinigen
Mit den folgenden Schritten vermeiden Sie, dass Ihrem Google Cloud-Konto die in diesem Beitrag verwendeten Ressourcen in Rechnung gestellt werden:
- Wechseln Sie in der Google Cloud Console zur Seite Ressourcen verwalten.
- Wählen Sie in der Projektliste das Projekt aus, das Sie löschen möchten, und klicken Sie auf Löschen.
- Geben Sie im Dialogfeld die Projekt-ID ein und klicken Sie auf Beenden , um das Projekt zu löschen.
- Wenn Sie Ihr Projekt behalten möchten, überspringen Sie die obigen Schritte und löschen Sie die Cloud Functions-Funktion. Rufen Sie dazu Cloud Functions auf, wählen Sie in der Liste der Funktionen die Funktion aus, die Sie löschen möchten, und klicken Sie auf „LÖSCHEN“.
7. Glückwunsch
Glückwunsch! Sie haben erfolgreich eine Cloud Functions-Funktion verwendet, die das PaLM Text Bison-Modell umschließt. Weitere Informationen zu den verfügbaren Modellen finden Sie in der Vertex AI LLM-Produktdokumentation.