Utilisation de l'instance de saut suivant (sans tag et avec tag), de l'adresse de saut suivant et de la passerelle de saut suivant des routes statiques IPv6

1. Introduction

Les routes personnalisées statiques influencent le comportement de routage par défaut dans un VPC. Les routes personnalisées IPv6 sont désormais compatibles avec de nouveaux attributs de saut suivant: next-hop-gateway, next-hop-instance et next-hop-address. Cet atelier de programmation explique comment utiliser des routes personnalisées IPv6 avec ces nouvelles options de saut suivant à l'aide de deux VPC connectés par une instance de VM à plusieurs cartes d'interface réseau. Vous allez également montrer comment mélanger l'adressage ULA et GUA, et comment assurer la connectivité du VPC ULA à l'Internet public à l'aide de la nouvelle fonctionnalité de route personnalisée.

Points abordés

  • Créer une route IPv6 personnalisée avec un saut suivant de type next-hop-instance
  • Créer une route IPv6 personnalisée avec un saut suivant de passerelle de saut suivant
  • Créer une route IPv6 personnalisée avec un saut suivant next-hop-address

Prérequis

  • Projet Google Cloud

2. Avant de commencer

Mettre à jour le projet pour qu'il prenne en charge l'atelier de programmation

Cet atelier de programmation utilise des $variables pour faciliter l'implémentation de la configuration gcloud dans Cloud Shell.

Dans Cloud Shell, procédez comme suit :

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
export projectname=$(gcloud config list --format="value(core.project)")

Architecture globale de l'atelier

eae86f3e371e74b8.png

Pour illustrer les deux types de nœuds de transfert de route personnalisée, vous allez créer trois VPC: un VPC client qui utilise l'adressage GUA, un VPC serveur qui utilise l'adressage ULA et un deuxième VPC serveur qui utilise l'adressage GUA.

Pour que le VPC client puisse accéder au serveur ULA, vous devez utiliser une route personnalisée utilisant à la fois next-hop-instance et next-hop-address pointant vers une instance de passerelle multi-NIC. Pour autoriser l'accès au serveur GUA (après avoir supprimé la route par défaut ::/0), vous utiliserez une route personnalisée avec next-hop-gateway pointant vers la passerelle Internet par défaut pour fournir un routage sur Internet.

3. Configuration du VPC client

Créer le VPC client

Dans Cloud Shell, procédez comme suit:

gcloud compute networks create client-vpc \
    --project=$projectname \
    --subnet-mode=custom \
    --mtu=1500 --bgp-routing-mode=regional

Créer le sous-réseau client

Dans Cloud Shell, procédez comme suit:

gcloud compute networks subnets create client-subnet  \
    --network=client-vpc \
    --project=$projectname \
    --range=192.168.1.0/24 \
    --stack-type=IPV4_IPV6 \
    --ipv6-access-type=external \
    --region=us-central1

Enregistrez le sous-réseau GUA attribué dans une variable d'environnement à l'aide de cette commande

export client_subnet=$(gcloud compute networks subnets \
    describe client-subnet \
    --project $projectname \
    --format="value(externalIpv6Prefix)" \
    --region us-central1)

Lancer l'instance cliente

Dans Cloud Shell, procédez comme suit:

gcloud compute instances create client-instance \
    --subnet client-subnet \
    --stack-type IPV4_IPV6 \
    --zone us-central1-a \
    --project=$projectname

Ajouter une règle de pare-feu pour le trafic VPC client

Dans Cloud Shell, procédez comme suit:

gcloud compute firewall-rules create allow-gateway-client \
    --direction=INGRESS --priority=1000 \
    --network=client-vpc --action=ALLOW \
    --rules=tcp --source-ranges=$client_subnet \
    --project=$projectname 

Ajouter une règle de pare-feu pour autoriser l'IAP pour l'instance cliente

Dans Cloud Shell, procédez comme suit:

gcloud compute firewall-rules create allow-iap-client \
    --direction=INGRESS --priority=1000 \
    --network=client-vpc --action=ALLOW \
    --rules=tcp:22 --source-ranges=35.235.240.0/20 \
    --project=$projectname 

Confirmer l'accès SSH à l'instance cliente

Dans Cloud Shell, connectez-vous à l'instance cliente:

gcloud compute ssh client-instance \
    --project=$projectname \
    --zone=us-central1-a \
    --tunnel-through-iap

Si l'opération réussit, une fenêtre de terminal s'affiche à partir de l'instance cliente. Quittez la session SSH pour continuer l'atelier de programmation.

4. Configuration du VPC du serveur ULA

Créer le VPC du serveur ULA

Dans Cloud Shell, procédez comme suit:

gcloud compute networks create server-vpc1 \
    --project=$projectname \
    --subnet-mode=custom --mtu=1500 \
    --bgp-routing-mode=regional \
    --enable-ula-internal-ipv6

Créer les sous-réseaux de serveurs ULA

Dans Cloud Shell, procédez comme suit:

gcloud compute networks subnets create server-subnet1 \
    --network=server-vpc1 \
    --project=$projectname \
    --range=192.168.0.0/24 \
    --stack-type=IPV4_IPV6 \
    --ipv6-access-type=internal \
    --region=us-central1

Enregistrez le sous-réseau ULA attribué dans une variable d'environnement à l'aide de cette commande

export server_subnet1=$(gcloud compute networks subnets \
    describe server-subnet1 \
    --project $projectname \
    --format="value(internalIpv6Prefix)" \
    --region us-central1)

Lancer une VM serveur avec une adresse IPv6 interne ULA

Dans Cloud Shell, procédez comme suit:

gcloud compute instances create server-instance1 \
    --subnet server-subnet1 \
    --stack-type IPV4_IPV6 \
    --zone us-central1-a \
    --project=$projectname

Ajouter une règle de pare-feu pour autoriser l'accès au serveur depuis le client

Dans Cloud Shell, procédez comme suit:

gcloud compute firewall-rules create allow-client-server1 \
    --direction=INGRESS --priority=1000 \
    --network=server-vpc1 --action=ALLOW \
    --rules=tcp --source-ranges=$client_subnet \
    --project=$projectname 

Ajouter une règle de pare-feu pour autoriser les IAP

Dans Cloud Shell, procédez comme suit:

gcloud compute firewall-rules create allow-iap-server1 \
    --direction=INGRESS --priority=1000 \
    --network=server-vpc1 --action=ALLOW \
    --rules=tcp:22 \
    --source-ranges=35.235.240.0/20 \
    --project=$projectname 

Installer Apache dans l'instance de serveur ULA

Dans Cloud Shell, connectez-vous à l'instance cliente:

gcloud compute ssh server-instance1 \
    --project=$projectname \
    --zone=us-central1-a \
    --tunnel-through-iap

Dans le shell de la VM serveur, exécutez la commande suivante :

sudo apt update && sudo apt -y install apache2

Vérifier qu'Apache est en cours d'exécution

sudo systemctl status apache2

Écraser la page Web par défaut

echo '<!doctype html><html><body><h1>Hello World! From Server1!</h1></body></html>' | sudo tee /var/www/html/index.html

Quittez la session SSH pour continuer l'atelier de programmation.

5. Configuration du VPC du serveur GUA

Créer le VPC du serveur GUA

Dans Cloud Shell, procédez comme suit:

gcloud compute networks create server-vpc2 \
    --project=$projectname \
    --subnet-mode=custom --mtu=1500 \
    --bgp-routing-mode=regional

Créer les sous-réseaux de serveurs GUA

Dans Cloud Shell, procédez comme suit:

gcloud compute networks subnets create server-subnet2 \
    --network=server-vpc2 \
    --project=$projectname \
    --range=192.168.0.0/24 \
    --stack-type=IPV4_IPV6 \
    --ipv6-access-type=external \
    --region=us-central1

Enregistrez le sous-réseau GUA attribué dans une variable d'environnement à l'aide de cette commande

export server_subnet2=$(gcloud compute networks subnets \
    describe server-subnet2 \
    --project $projectname \
    --format="value(externalIpv6Prefix)" \
    --region us-central1)

Lancer une VM de serveur avec une adresse IPv6 GUA

Dans Cloud Shell, procédez comme suit:

gcloud compute instances create server-instance2 \
    --subnet server-subnet2 \
    --stack-type IPV4_IPV6 \
    --zone us-central1-a \
    --project=$projectname

Ajouter une règle de pare-feu pour autoriser l'accès au sous-réseau

Dans Cloud Shell, procédez comme suit:

gcloud compute firewall-rules create allow-client-server2 \
    --direction=INGRESS \
    --priority=1000 \
    --network=server-vpc2 \
    --action=ALLOW \
    --rules=tcp --source-ranges=$client_subnet \
    --project=$projectname 

Ajouter une règle de pare-feu pour autoriser les IAP

Dans Cloud Shell, procédez comme suit:

gcloud compute firewall-rules create allow-iap-server2 \
    --direction=INGRESS \
    --priority=1000 \
    --network=server-vpc2 \
    --action=ALLOW \
    --rules=tcp:22 \
    --source-ranges=35.235.240.0/20 \
    --project=$projectname 

Confirmer l'accès SSH à l'instance de serveur GUA et installer Apache

Dans Cloud Shell, connectez-vous à l'instance cliente:

gcloud compute ssh server-instance2 \
    --project=$projectname \
    --zone=us-central1-a \
    --tunnel-through-iap

Dans le shell de la VM serveur, exécutez la commande suivante :

sudo apt update && sudo apt -y install apache2

Vérifier qu'Apache est en cours d'exécution

sudo systemctl status apache2

Écraser la page Web par défaut

echo '<!doctype html><html><body><h1>Hello World! From Server2!</h1></body></html>' | sudo tee /var/www/html/index.html

Quittez la session SSH pour continuer l'atelier de programmation.

6. Créer une instance de passerelle

Supprimez la route par défaut du VPC client

En préparation de la redirection du trafic ULA v6 vers l'instance multi-NIC et de la désactivation du routage sortant Internet. Supprimez la route ::/0 par défaut pointant vers la passerelle Internet par défaut.

Dans Cloud Shell, procédez comme suit:

export client_defroutename=$(gcloud compute routes list \
--project $projectname \
--format='value(name)' \
--filter="network:client-vpc AND destRange~'::/0'")

gcloud compute routes delete $client_defroutename \
--project $projectname \
--quiet

Lancer la VM de passerelle à plusieurs cartes d'interface réseau

Dans Cloud Shell, procédez comme suit :

gcloud compute instances create gateway-instance \
    --project=$projectname \
    --zone=us-central1-a \
--network-interface=stack-type=IPV4_IPV6,subnet=client-subnet,no-address \
--network-interface=stack-type=IPV4_IPV6,subnet=server-subnet1,no-address \
    --can-ip-forward

Configurer l'instance de passerelle

Dans Cloud Shell, connectez-vous à l'instance de passerelle (l'authentification par SSH peut prendre quelques minutes pendant le démarrage de l'instance):

gcloud compute ssh gateway-instance \
    --project=$projectname \
    --zone=us-central1-a \
    --tunnel-through-iap

Dans le shell de la VM de la passerelle, exécutez la commande suivante pour activer le transfert IPv6 et continuer à accepter les RA avec le transfert activé (accept_ra = 2).

sudo sysctl -w net.ipv6.conf.ens4.accept_ra=2
sudo sysctl -w net.ipv6.conf.ens5.accept_ra=2
sudo sysctl -w net.ipv6.conf.ens4.accept_ra_defrtr=1
sudo sysctl -w net.ipv6.conf.all.forwarding=1

Vérifier la table de routage IPv6 sur l'instance

ip -6 route show

Exemple de sortie affichant à la fois les routes de sous-réseau ULA et GUA, avec la route par défaut pointant vers l'interface GUA.

::1 dev lo proto kernel metric 256 pref medium
2600:1900:4000:7a7f:0:1:: dev ens4 proto kernel metric 256 expires 83903sec pref medium
2600:1900:4000:7a7f::/65 via fe80::4001:c0ff:fea8:101 dev ens4 proto ra metric 1024 expires 88sec pref medium
fd20:3df:8d5c::1:0:0 dev ens5 proto kernel metric 256 expires 83904sec pref medium
fd20:3df:8d5c::/64 via fe80::4001:c0ff:fea8:1 dev ens5 proto ra metric 1024 expires 84sec pref medium
fe80::/64 dev ens5 proto kernel metric 256 pref medium
fe80::/64 dev ens4 proto kernel metric 256 pref medium
default via fe80::4001:c0ff:fea8:101 dev ens4 proto ra metric 1024 expires 88sec pref medium

Quittez la session SSH pour continuer l'atelier de programmation.

7. Créer et tester des routes vers l'instance de passerelle (à l'aide du nom de l'instance)

Dans cette section, vous allez ajouter des routes aux VPC client et serveur en utilisant le nom de l'instance de passerelle comme saut suivant.

Notez les adresses des serveurs

Dans Cloud Shell, procédez comme suit:

gcloud compute instances list \
   --project $projectname \
   --filter="name~server-instance" \
--format='value[separator=","](name,networkInterfaces[0].ipv6Address,networkInterfaces[0].ipv6AccessConfigs[0].externalIpv6)'

Les noms des instances de serveur et leurs préfixes IPv6 devraient s'afficher. Exemple de résultat

server-instance1,fd20:3df:8d5c:0:0:0:0:0,
server-instance2,,2600:1900:4000:71fd:0:0:0:0

Notez les deux adresses, car vous les utiliserez plus tard dans les commandes curl de l'instance cliente. Malheureusement, les variables d'environnement ne peuvent pas être facilement utilisées pour les stocker, car elles ne sont pas transférées via les sessions SSH.

Exécuter la commande curl du client vers l'instance de serveur ULA

Pour voir le comportement avant d'ajouter des itinéraires. Exécutez une commande curl à partir de l'instance cliente vers l'instance de serveur 1.

Dans Cloud Shell, connectez-vous à l'instance cliente:

gcloud compute ssh client-instance \
    --project=$projectname \
    --zone=us-central1-a \
    --tunnel-through-iap

Dans l'instance cliente, effectuez une requête curl à l'aide de l'adresse IPv6 ULA de l'instance server1 (la commande définit un délai avant expiration court de 5 s pour éviter que curl n'attende trop longtemps)

curl -m 5.0 -g -6 'http://[ULA-ipv6-address-of-server1]:80/'

Cette commande curl doit expirer, car le VPC client ne dispose pas encore d'une route vers le VPC du serveur.

Essayons de résoudre ce problème. Quittez la session SSH pour le moment.

Ajouter une route personnalisée dans le VPC client

Étant donné qu'il manque une route vers le préfixe ULA dans le VPC client. Ajoutons-le maintenant.

Dans Cloud Shell, procédez comme suit:

gcloud compute routes create client-to-server1-route \
   --project=$projectname \
   --destination-range=$server_subnet1 \
   --network=client-vpc \
   --next-hop-instance=gateway-instance \
   --next-hop-instance-zone=us-central1-a

Revenez à l'instance cliente via SSH:

gcloud compute ssh client-instance \
    --project=$projectname \
    --zone=us-central1-a \
    --tunnel-through-iap

Dans l'instance cliente, réessayez la requête curl vers l'instance de serveur. (la commande définit un délai avant expiration court de 5 s pour éviter que curl attende trop longtemps)

curl -m 5.0 -g -6 'http://[ULA-ipv6-address-of-server1]:80/'

Cette commande curl expire toujours, car le VPC server1 ne dispose pas encore d'une route vers le VPC client via l'instance de passerelle.

Quittez la session SSH pour continuer l'atelier de programmation.

Ajouter une route personnalisée dans le VPC du serveur ULA

Dans Cloud Shell, procédez comme suit:

gcloud compute routes create server1-to-client-route \
   --project=$projectname \
   --destination-range=$client_subnet \
   --network=server-vpc1 \
   --next-hop-instance=gateway-instance \
   --next-hop-instance-zone=us-central1-a

Revenez à l'instance cliente via SSH:

gcloud compute ssh client-instance \
    --project=$projectname \
    --zone=us-central1-a \
    --tunnel-through-iap

Dans l'instance cliente, essayez à nouveau d'exécuter curl vers l'instance de serveur.

curl -m 5.0 -g -6 'http://[ULA-ipv6-address-of-server1]:80/'

Cette commande curl réussit maintenant, ce qui montre que vous avez une connectivité de bout en bout de l'instance cliente à l'instance du serveur ULA. Cette connectivité n'est désormais possible que par l'utilisation de routes personnalisées IPv6 avec next-hop-instance comme saut suivant.

Exemple de résultat

<user id>@client-instance:~$ curl -m 5.0 -g -6 'http://[fd20:3df:8d5c:0:0:0:0:0]:80/'
<!doctype html><html><body><h1>Hello World! From Server1!</h1></body></html>

Quittez la session SSH pour continuer l'atelier de programmation.

8. Créer et tester des routes vers l'instance de passerelle (à l'aide de l'adresse de l'instance)

Dans cette section, vous allez ajouter des routes aux VPC client et serveur en utilisant l'adresse IPv6 de l'instance de passerelle comme saut suivant.

Supprimer des routes précédentes

Restaurons l'environnement tel qu'il était avant l'ajout de routes personnalisées en supprimant les routes personnalisées qui utilisent le nom de l'instance.

Dans Cloud Shell, procédez comme suit:

gcloud compute routes delete client-to-server1-route  --quiet --project=$projectname
gcloud compute routes delete server1-to-client-route  --quiet --project=$projectname

Exécuter la commande curl du client vers l'instance de serveur ULA

Pour vérifier que les routes précédentes ont bien été supprimées, exécutez une commande curl à partir de l'instance cliente vers l'instance de serveur1.

Dans Cloud Shell, connectez-vous à l'instance cliente:

gcloud compute ssh client-instance \
    --project=$projectname \
    --zone=us-central1-a \
    --tunnel-through-iap

Dans l'instance cliente, effectuez une requête curl à l'aide de l'adresse IPv6 ULA de l'instance server1 (la commande définit un délai avant expiration court de 5 s pour éviter que curl n'attende trop longtemps)

curl -m 5.0 -g -6 'http://[ULA-ipv6-address-of-server1]:80/'

Cette commande curl doit expirer, car le VPC client n'a plus de route vers le VPC du serveur.

Obtenir les adresses IPv6 de l'instance de passerelle

Nous devons obtenir les adresses IPv6 de l'instance de passerelle avant de pouvoir écrire des routes qui utilisent next-hop-address.

Dans Cloud Shell, procédez comme suit:

export gateway_ula_address=$(gcloud compute instances \
   describe gateway-instance \
   --project $projectname  \
   --format='value(networkInterfaces[1].ipv6Address)')

export gateway_gua_address=$(gcloud compute instances \
   describe gateway-instance \
   --project $projectname  \
   --format='value(networkInterfaces[0].ipv6AccessConfigs[0].externalIpv6)')

Ajouter une route personnalisée dans le VPC client

Nous pouvons maintenant ajouter à nouveau la route dans le VPC client avec le préfixe ULA, mais en utilisant l'adresse GUA de la passerelle comme saut suivant.

Dans Cloud Shell, procédez comme suit:

gcloud compute routes create client-to-server1-route \
   --project=$projectname \
   --destination-range=$server_subnet1 \
   --network=client-vpc \
   --next-hop-address=$gateway_gua_address

Revenez à l'instance cliente via SSH:

gcloud compute ssh client-instance \
    --project=$projectname \
    --zone=us-central1-a \
    --tunnel-through-iap

Dans l'instance cliente, réessayez d'exécuter la requête curl vers l'instance de serveur.

curl -m 5.0 -g -6 'http://[ULA-ipv6-address-of-server1]:80/'

Comme prévu, cette commande curl expire toujours, car le VPC server1 ne dispose pas encore d'une route vers le VPC client via l'instance de passerelle.

Quittez la session SSH pour continuer l'atelier de programmation.

Ajouter une route personnalisée dans le VPC du serveur ULA

Dans Cloud Shell, procédez comme suit:

gcloud compute routes create server1-to-client-route \
   --project=$projectname \
   --destination-range=$client_subnet \
   --network=server-vpc1 \
   --next-hop-address=$gateway_ula_address

Revenez à l'instance cliente via SSH:

gcloud compute ssh client-instance \
    --project=$projectname \
    --zone=us-central1-a \
    --tunnel-through-iap

Dans l'instance cliente, essayez à nouveau d'exécuter curl vers l'instance de serveur.

curl -m 5.0 -g -6 'http://[ULA-ipv6-address-of-server1]:80/'

Cette commande curl réussit désormais, ce qui montre que vous avez une connectivité de bout en bout de l'instance cliente à l'instance du serveur ULA. Cette connectivité n'est désormais possible que par l'utilisation de routes personnalisées IPv6 avec l'adresse de saut suivant comme saut suivant.

Exemple de résultat

<user id>@client-instance:~$ curl -m 5.0 -g -6 'http://[fd20:3df:8d5c:0:0:0:0:0]:80/'
<!doctype html><html><body><h1>Hello World! From Server1!</h1></body></html>

Quittez la session SSH pour continuer l'atelier de programmation.

9. Créer et tester une route vers la passerelle Internet

Maintenant que vous avez configuré cet atelier, testons également le fonctionnement de la nouvelle propriété de saut suivant: next-hop-gateway.

Exécuter la commande curl du client vers l'instance de serveur GUA

Pour voir le comportement avant d'ajouter des itinéraires. Exécutez une commande curl à partir de l'instance cliente vers l'adresse IP de server2.

Dans Cloud Shell, connectez-vous à l'instance cliente:

gcloud compute ssh client-instance \
    --project=$projectname \
    --zone=us-central1-a \
    --tunnel-through-iap

Dans l'instance cliente, effectuez une requête curl vers le point de terminaison IPv6.

curl -m 5.0 -g -6 'http://[GUA-ipv6-address-of-server2]:80/'

Cette commande curl doit expirer, car le VPC client ne dispose que de sa propre route de sous-réseau et d'une route vers le VPC du serveur 1. Pour pouvoir accéder à la plage d'adresses GUA du VPC server2, vous devez utiliser la passerelle Internet par défaut via une route personnalisée.

Quittez la session SSH pour continuer l'atelier de programmation.

Ajouter une route de passerelle personnalisée dans le VPC client

Dans Cloud Shell, procédez comme suit:

gcloud compute routes create client-to-server2-route \
   --project=$projectname \
   --destination-range=$server_subnet2 \
   --network=client-vpc \
   --next-hop-gateway=default-internet-gateway

Revenez à l'instance cliente via SSH:

gcloud compute ssh client-instance \
    --project=$projectname \
    --zone=us-central1-a \
    --tunnel-through-iap

Dans l'instance cliente, répétez la même requête curl

curl -m 5.0 -g -6 'http://[GUA-ipv6-address-of-server2]:80/'

Cette commande curl devrait maintenant renvoyer le message d'accueil personnalisé, indiquant que vous avez réussi à atteindre l'adresse IPv6 de l'autre serveur via la passerelle Internet par défaut.

Exemple de résultat :

<user id>@client-instance:~$ curl -m 5.0 -g -6 'http://[2600:1900:4000:71fd:0:0:0:0]:80/'
<!doctype html><html><body><h1>Hello World! From Server2!</h1></body></html>

Quittez la session SSH pour passer à la section de nettoyage de l'atelier.

10. Effectuer un nettoyage

Nettoyer les instances

Dans Cloud Shell, procédez comme suit:

gcloud compute instances delete client-instance --zone us-central1-a --quiet --project=$projectname

gcloud compute instances delete server-instance1 --zone us-central1-a --quiet --project=$projectname

gcloud compute instances delete server-instance2 --zone us-central1-a --quiet --project=$projectname

gcloud compute instances delete gateway-instance --zone us-central1-a --quiet --project=$projectname

Nettoyer les sous-réseaux

Dans Cloud Shell, procédez comme suit:

gcloud compute networks subnets delete client-subnet --region=us-central1 --quiet --project=$projectname

gcloud compute networks subnets delete server-subnet1 --region=us-central1 --quiet --project=$projectname

gcloud compute networks subnets delete server-subnet2 --region=us-central1 --quiet --project=$projectname

Nettoyer les règles de pare-feu

Dans Cloud Shell, procédez comme suit:

gcloud compute firewall-rules delete allow-iap-client  --quiet --project=$projectname
gcloud compute firewall-rules delete allow-iap-server1  --quiet --project=$projectname
gcloud compute firewall-rules delete allow-iap-server2  --quiet --project=$projectname
gcloud compute firewall-rules delete allow-gateway-client  --quiet --project=$projectname
gcloud compute firewall-rules delete allow-client-server1  --quiet --project=$projectname
gcloud compute firewall-rules delete allow-client-server2  --quiet --project=$projectname

Nettoyer les routes personnalisées

Dans Cloud Shell, procédez comme suit:

gcloud compute routes delete client-to-server1-route  --quiet --project=$projectname
gcloud compute routes delete client-to-server2-route  --quiet --project=$projectname
gcloud compute routes delete server1-to-client-route  --quiet --project=$projectname

Nettoyer les VPC

Dans Cloud Shell, procédez comme suit:

gcloud compute networks delete client-vpc --quiet --project=$projectname
gcloud compute networks delete server-vpc1 --quiet --project=$projectname
gcloud compute networks delete server-vpc2 --quiet --project=$projectname

11. Félicitations

Vous avez correctement utilisé des routes IPv6 statiques personnalisées avec des sauts suivants définis sur next-hop-gateway , next-hop-instance et next-hop-address. Vous avez également validé la communication IPv6 de bout en bout à l'aide de ces routes.

Étape suivante

Découvrez quelques-uns des ateliers de programmation...

Ressources complémentaires et vidéos

Documents de référence