1. Introduction
Les routes personnalisées statiques influencent le comportement de routage par défaut dans un VPC. Les routes personnalisées IPv6 sont désormais compatibles avec de nouveaux attributs de saut suivant: next-hop-gateway, next-hop-instance et next-hop-address. Cet atelier de programmation explique comment utiliser des routes personnalisées IPv6 avec ces nouvelles options de saut suivant à l'aide de deux VPC connectés par une instance de VM à plusieurs cartes d'interface réseau. Vous allez également montrer comment mélanger l'adressage ULA et GUA, et comment assurer la connectivité du VPC ULA à l'Internet public à l'aide de la nouvelle fonctionnalité de route personnalisée.
Points abordés
- Créer une route IPv6 personnalisée avec un saut suivant de type next-hop-instance
- Créer une route IPv6 personnalisée avec un saut suivant de passerelle de saut suivant
- Créer une route IPv6 personnalisée avec un saut suivant next-hop-address
Prérequis
- Projet Google Cloud
2. Avant de commencer
Mettre à jour le projet pour qu'il prenne en charge l'atelier de programmation
Cet atelier de programmation utilise des $variables pour faciliter l'implémentation de la configuration gcloud dans Cloud Shell.
Dans Cloud Shell, procédez comme suit :
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
export projectname=$(gcloud config list --format="value(core.project)")
Architecture globale de l'atelier
Pour illustrer les deux types de nœuds de transfert de route personnalisée, vous allez créer trois VPC: un VPC client qui utilise l'adressage GUA, un VPC serveur qui utilise l'adressage ULA et un deuxième VPC serveur qui utilise l'adressage GUA.
Pour que le VPC client puisse accéder au serveur ULA, vous devez utiliser une route personnalisée utilisant à la fois next-hop-instance et next-hop-address pointant vers une instance de passerelle multi-NIC. Pour autoriser l'accès au serveur GUA (après avoir supprimé la route par défaut ::/0), vous utiliserez une route personnalisée avec next-hop-gateway pointant vers la passerelle Internet par défaut pour fournir un routage sur Internet.
3. Configuration du VPC client
Créer le VPC client
Dans Cloud Shell, procédez comme suit:
gcloud compute networks create client-vpc \
--project=$projectname \
--subnet-mode=custom \
--mtu=1500 --bgp-routing-mode=regional
Créer le sous-réseau client
Dans Cloud Shell, procédez comme suit:
gcloud compute networks subnets create client-subnet \
--network=client-vpc \
--project=$projectname \
--range=192.168.1.0/24 \
--stack-type=IPV4_IPV6 \
--ipv6-access-type=external \
--region=us-central1
Enregistrez le sous-réseau GUA attribué dans une variable d'environnement à l'aide de cette commande
export client_subnet=$(gcloud compute networks subnets \
describe client-subnet \
--project $projectname \
--format="value(externalIpv6Prefix)" \
--region us-central1)
Lancer l'instance cliente
Dans Cloud Shell, procédez comme suit:
gcloud compute instances create client-instance \
--subnet client-subnet \
--stack-type IPV4_IPV6 \
--zone us-central1-a \
--project=$projectname
Ajouter une règle de pare-feu pour le trafic VPC client
Dans Cloud Shell, procédez comme suit:
gcloud compute firewall-rules create allow-gateway-client \
--direction=INGRESS --priority=1000 \
--network=client-vpc --action=ALLOW \
--rules=tcp --source-ranges=$client_subnet \
--project=$projectname
Ajouter une règle de pare-feu pour autoriser l'IAP pour l'instance cliente
Dans Cloud Shell, procédez comme suit:
gcloud compute firewall-rules create allow-iap-client \
--direction=INGRESS --priority=1000 \
--network=client-vpc --action=ALLOW \
--rules=tcp:22 --source-ranges=35.235.240.0/20 \
--project=$projectname
Confirmer l'accès SSH à l'instance cliente
Dans Cloud Shell, connectez-vous à l'instance cliente:
gcloud compute ssh client-instance \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
Si l'opération réussit, une fenêtre de terminal s'affiche à partir de l'instance cliente. Quittez la session SSH pour continuer l'atelier de programmation.
4. Configuration du VPC du serveur ULA
Créer le VPC du serveur ULA
Dans Cloud Shell, procédez comme suit:
gcloud compute networks create server-vpc1 \
--project=$projectname \
--subnet-mode=custom --mtu=1500 \
--bgp-routing-mode=regional \
--enable-ula-internal-ipv6
Créer les sous-réseaux de serveurs ULA
Dans Cloud Shell, procédez comme suit:
gcloud compute networks subnets create server-subnet1 \
--network=server-vpc1 \
--project=$projectname \
--range=192.168.0.0/24 \
--stack-type=IPV4_IPV6 \
--ipv6-access-type=internal \
--region=us-central1
Enregistrez le sous-réseau ULA attribué dans une variable d'environnement à l'aide de cette commande
export server_subnet1=$(gcloud compute networks subnets \
describe server-subnet1 \
--project $projectname \
--format="value(internalIpv6Prefix)" \
--region us-central1)
Lancer une VM serveur avec une adresse IPv6 interne ULA
Dans Cloud Shell, procédez comme suit:
gcloud compute instances create server-instance1 \
--subnet server-subnet1 \
--stack-type IPV4_IPV6 \
--zone us-central1-a \
--project=$projectname
Ajouter une règle de pare-feu pour autoriser l'accès au serveur depuis le client
Dans Cloud Shell, procédez comme suit:
gcloud compute firewall-rules create allow-client-server1 \
--direction=INGRESS --priority=1000 \
--network=server-vpc1 --action=ALLOW \
--rules=tcp --source-ranges=$client_subnet \
--project=$projectname
Ajouter une règle de pare-feu pour autoriser les IAP
Dans Cloud Shell, procédez comme suit:
gcloud compute firewall-rules create allow-iap-server1 \
--direction=INGRESS --priority=1000 \
--network=server-vpc1 --action=ALLOW \
--rules=tcp:22 \
--source-ranges=35.235.240.0/20 \
--project=$projectname
Installer Apache dans l'instance de serveur ULA
Dans Cloud Shell, connectez-vous à l'instance cliente:
gcloud compute ssh server-instance1 \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
Dans le shell de la VM serveur, exécutez la commande suivante :
sudo apt update && sudo apt -y install apache2
Vérifier qu'Apache est en cours d'exécution
sudo systemctl status apache2
Écraser la page Web par défaut
echo '<!doctype html><html><body><h1>Hello World! From Server1!</h1></body></html>' | sudo tee /var/www/html/index.html
Quittez la session SSH pour continuer l'atelier de programmation.
5. Configuration du VPC du serveur GUA
Créer le VPC du serveur GUA
Dans Cloud Shell, procédez comme suit:
gcloud compute networks create server-vpc2 \
--project=$projectname \
--subnet-mode=custom --mtu=1500 \
--bgp-routing-mode=regional
Créer les sous-réseaux de serveurs GUA
Dans Cloud Shell, procédez comme suit:
gcloud compute networks subnets create server-subnet2 \
--network=server-vpc2 \
--project=$projectname \
--range=192.168.0.0/24 \
--stack-type=IPV4_IPV6 \
--ipv6-access-type=external \
--region=us-central1
Enregistrez le sous-réseau GUA attribué dans une variable d'environnement à l'aide de cette commande
export server_subnet2=$(gcloud compute networks subnets \
describe server-subnet2 \
--project $projectname \
--format="value(externalIpv6Prefix)" \
--region us-central1)
Lancer une VM de serveur avec une adresse IPv6 GUA
Dans Cloud Shell, procédez comme suit:
gcloud compute instances create server-instance2 \
--subnet server-subnet2 \
--stack-type IPV4_IPV6 \
--zone us-central1-a \
--project=$projectname
Ajouter une règle de pare-feu pour autoriser l'accès au sous-réseau
Dans Cloud Shell, procédez comme suit:
gcloud compute firewall-rules create allow-client-server2 \
--direction=INGRESS \
--priority=1000 \
--network=server-vpc2 \
--action=ALLOW \
--rules=tcp --source-ranges=$client_subnet \
--project=$projectname
Ajouter une règle de pare-feu pour autoriser les IAP
Dans Cloud Shell, procédez comme suit:
gcloud compute firewall-rules create allow-iap-server2 \
--direction=INGRESS \
--priority=1000 \
--network=server-vpc2 \
--action=ALLOW \
--rules=tcp:22 \
--source-ranges=35.235.240.0/20 \
--project=$projectname
Confirmer l'accès SSH à l'instance de serveur GUA et installer Apache
Dans Cloud Shell, connectez-vous à l'instance cliente:
gcloud compute ssh server-instance2 \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
Dans le shell de la VM serveur, exécutez la commande suivante :
sudo apt update && sudo apt -y install apache2
Vérifier qu'Apache est en cours d'exécution
sudo systemctl status apache2
Écraser la page Web par défaut
echo '<!doctype html><html><body><h1>Hello World! From Server2!</h1></body></html>' | sudo tee /var/www/html/index.html
Quittez la session SSH pour continuer l'atelier de programmation.
6. Créer une instance de passerelle
Supprimez la route par défaut du VPC client
En préparation de la redirection du trafic ULA v6 vers l'instance multi-NIC et de la désactivation du routage sortant Internet. Supprimez la route ::/0 par défaut pointant vers la passerelle Internet par défaut.
Dans Cloud Shell, procédez comme suit:
export client_defroutename=$(gcloud compute routes list \
--project $projectname \
--format='value(name)' \
--filter="network:client-vpc AND destRange~'::/0'")
gcloud compute routes delete $client_defroutename \
--project $projectname \
--quiet
Lancer la VM de passerelle à plusieurs cartes d'interface réseau
Dans Cloud Shell, procédez comme suit :
gcloud compute instances create gateway-instance \
--project=$projectname \
--zone=us-central1-a \
--network-interface=stack-type=IPV4_IPV6,subnet=client-subnet,no-address \
--network-interface=stack-type=IPV4_IPV6,subnet=server-subnet1,no-address \
--can-ip-forward
Configurer l'instance de passerelle
Dans Cloud Shell, connectez-vous à l'instance de passerelle (l'authentification par SSH peut prendre quelques minutes pendant le démarrage de l'instance):
gcloud compute ssh gateway-instance \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
Dans le shell de la VM de la passerelle, exécutez la commande suivante pour activer le transfert IPv6 et continuer à accepter les RA avec le transfert activé (accept_ra = 2).
sudo sysctl -w net.ipv6.conf.ens4.accept_ra=2
sudo sysctl -w net.ipv6.conf.ens5.accept_ra=2
sudo sysctl -w net.ipv6.conf.ens4.accept_ra_defrtr=1
sudo sysctl -w net.ipv6.conf.all.forwarding=1
Vérifier la table de routage IPv6 sur l'instance
ip -6 route show
Exemple de sortie affichant à la fois les routes de sous-réseau ULA et GUA, avec la route par défaut pointant vers l'interface GUA.
::1 dev lo proto kernel metric 256 pref medium
2600:1900:4000:7a7f:0:1:: dev ens4 proto kernel metric 256 expires 83903sec pref medium
2600:1900:4000:7a7f::/65 via fe80::4001:c0ff:fea8:101 dev ens4 proto ra metric 1024 expires 88sec pref medium
fd20:3df:8d5c::1:0:0 dev ens5 proto kernel metric 256 expires 83904sec pref medium
fd20:3df:8d5c::/64 via fe80::4001:c0ff:fea8:1 dev ens5 proto ra metric 1024 expires 84sec pref medium
fe80::/64 dev ens5 proto kernel metric 256 pref medium
fe80::/64 dev ens4 proto kernel metric 256 pref medium
default via fe80::4001:c0ff:fea8:101 dev ens4 proto ra metric 1024 expires 88sec pref medium
Quittez la session SSH pour continuer l'atelier de programmation.
7. Créer et tester des routes vers l'instance de passerelle (à l'aide du nom de l'instance)
Dans cette section, vous allez ajouter des routes aux VPC client et serveur en utilisant le nom de l'instance de passerelle comme saut suivant.
Notez les adresses des serveurs
Dans Cloud Shell, procédez comme suit:
gcloud compute instances list \
--project $projectname \
--filter="name~server-instance" \
--format='value[separator=","](name,networkInterfaces[0].ipv6Address,networkInterfaces[0].ipv6AccessConfigs[0].externalIpv6)'
Les noms des instances de serveur et leurs préfixes IPv6 devraient s'afficher. Exemple de résultat
server-instance1,fd20:3df:8d5c:0:0:0:0:0,
server-instance2,,2600:1900:4000:71fd:0:0:0:0
Notez les deux adresses, car vous les utiliserez plus tard dans les commandes curl de l'instance cliente. Malheureusement, les variables d'environnement ne peuvent pas être facilement utilisées pour les stocker, car elles ne sont pas transférées via les sessions SSH.
Exécuter la commande curl du client vers l'instance de serveur ULA
Pour voir le comportement avant d'ajouter des itinéraires. Exécutez une commande curl à partir de l'instance cliente vers l'instance de serveur 1.
Dans Cloud Shell, connectez-vous à l'instance cliente:
gcloud compute ssh client-instance \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
Dans l'instance cliente, effectuez une requête curl à l'aide de l'adresse IPv6 ULA de l'instance server1 (la commande définit un délai avant expiration court de 5 s pour éviter que curl n'attende trop longtemps)
curl -m 5.0 -g -6 'http://[ULA-ipv6-address-of-server1]:80/'
Cette commande curl doit expirer, car le VPC client ne dispose pas encore d'une route vers le VPC du serveur.
Essayons de résoudre ce problème. Quittez la session SSH pour le moment.
Ajouter une route personnalisée dans le VPC client
Étant donné qu'il manque une route vers le préfixe ULA dans le VPC client. Ajoutons-le maintenant.
Dans Cloud Shell, procédez comme suit:
gcloud compute routes create client-to-server1-route \
--project=$projectname \
--destination-range=$server_subnet1 \
--network=client-vpc \
--next-hop-instance=gateway-instance \
--next-hop-instance-zone=us-central1-a
Revenez à l'instance cliente via SSH:
gcloud compute ssh client-instance \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
Dans l'instance cliente, réessayez la requête curl vers l'instance de serveur. (la commande définit un délai avant expiration court de 5 s pour éviter que curl attende trop longtemps)
curl -m 5.0 -g -6 'http://[ULA-ipv6-address-of-server1]:80/'
Cette commande curl expire toujours, car le VPC server1 ne dispose pas encore d'une route vers le VPC client via l'instance de passerelle.
Quittez la session SSH pour continuer l'atelier de programmation.
Ajouter une route personnalisée dans le VPC du serveur ULA
Dans Cloud Shell, procédez comme suit:
gcloud compute routes create server1-to-client-route \
--project=$projectname \
--destination-range=$client_subnet \
--network=server-vpc1 \
--next-hop-instance=gateway-instance \
--next-hop-instance-zone=us-central1-a
Revenez à l'instance cliente via SSH:
gcloud compute ssh client-instance \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
Dans l'instance cliente, essayez à nouveau d'exécuter curl vers l'instance de serveur.
curl -m 5.0 -g -6 'http://[ULA-ipv6-address-of-server1]:80/'
Cette commande curl réussit maintenant, ce qui montre que vous avez une connectivité de bout en bout de l'instance cliente à l'instance du serveur ULA. Cette connectivité n'est désormais possible que par l'utilisation de routes personnalisées IPv6 avec next-hop-instance comme saut suivant.
Exemple de résultat
<user id>@client-instance:~$ curl -m 5.0 -g -6 'http://[fd20:3df:8d5c:0:0:0:0:0]:80/'
<!doctype html><html><body><h1>Hello World! From Server1!</h1></body></html>
Quittez la session SSH pour continuer l'atelier de programmation.
8. Créer et tester des routes vers l'instance de passerelle (à l'aide de l'adresse de l'instance)
Dans cette section, vous allez ajouter des routes aux VPC client et serveur en utilisant l'adresse IPv6 de l'instance de passerelle comme saut suivant.
Supprimer des routes précédentes
Restaurons l'environnement tel qu'il était avant l'ajout de routes personnalisées en supprimant les routes personnalisées qui utilisent le nom de l'instance.
Dans Cloud Shell, procédez comme suit:
gcloud compute routes delete client-to-server1-route --quiet --project=$projectname
gcloud compute routes delete server1-to-client-route --quiet --project=$projectname
Exécuter la commande curl du client vers l'instance de serveur ULA
Pour vérifier que les routes précédentes ont bien été supprimées, exécutez une commande curl à partir de l'instance cliente vers l'instance de serveur1.
Dans Cloud Shell, connectez-vous à l'instance cliente:
gcloud compute ssh client-instance \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
Dans l'instance cliente, effectuez une requête curl à l'aide de l'adresse IPv6 ULA de l'instance server1 (la commande définit un délai avant expiration court de 5 s pour éviter que curl n'attende trop longtemps)
curl -m 5.0 -g -6 'http://[ULA-ipv6-address-of-server1]:80/'
Cette commande curl doit expirer, car le VPC client n'a plus de route vers le VPC du serveur.
Obtenir les adresses IPv6 de l'instance de passerelle
Nous devons obtenir les adresses IPv6 de l'instance de passerelle avant de pouvoir écrire des routes qui utilisent next-hop-address.
Dans Cloud Shell, procédez comme suit:
export gateway_ula_address=$(gcloud compute instances \
describe gateway-instance \
--project $projectname \
--format='value(networkInterfaces[1].ipv6Address)')
export gateway_gua_address=$(gcloud compute instances \
describe gateway-instance \
--project $projectname \
--format='value(networkInterfaces[0].ipv6AccessConfigs[0].externalIpv6)')
Ajouter une route personnalisée dans le VPC client
Nous pouvons maintenant ajouter à nouveau la route dans le VPC client avec le préfixe ULA, mais en utilisant l'adresse GUA de la passerelle comme saut suivant.
Dans Cloud Shell, procédez comme suit:
gcloud compute routes create client-to-server1-route \
--project=$projectname \
--destination-range=$server_subnet1 \
--network=client-vpc \
--next-hop-address=$gateway_gua_address
Revenez à l'instance cliente via SSH:
gcloud compute ssh client-instance \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
Dans l'instance cliente, réessayez d'exécuter la requête curl vers l'instance de serveur.
curl -m 5.0 -g -6 'http://[ULA-ipv6-address-of-server1]:80/'
Comme prévu, cette commande curl expire toujours, car le VPC server1 ne dispose pas encore d'une route vers le VPC client via l'instance de passerelle.
Quittez la session SSH pour continuer l'atelier de programmation.
Ajouter une route personnalisée dans le VPC du serveur ULA
Dans Cloud Shell, procédez comme suit:
gcloud compute routes create server1-to-client-route \
--project=$projectname \
--destination-range=$client_subnet \
--network=server-vpc1 \
--next-hop-address=$gateway_ula_address
Revenez à l'instance cliente via SSH:
gcloud compute ssh client-instance \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
Dans l'instance cliente, essayez à nouveau d'exécuter curl vers l'instance de serveur.
curl -m 5.0 -g -6 'http://[ULA-ipv6-address-of-server1]:80/'
Cette commande curl réussit désormais, ce qui montre que vous avez une connectivité de bout en bout de l'instance cliente à l'instance du serveur ULA. Cette connectivité n'est désormais possible que par l'utilisation de routes personnalisées IPv6 avec l'adresse de saut suivant comme saut suivant.
Exemple de résultat
<user id>@client-instance:~$ curl -m 5.0 -g -6 'http://[fd20:3df:8d5c:0:0:0:0:0]:80/'
<!doctype html><html><body><h1>Hello World! From Server1!</h1></body></html>
Quittez la session SSH pour continuer l'atelier de programmation.
9. Créer et tester une route vers la passerelle Internet
Maintenant que vous avez configuré cet atelier, testons également le fonctionnement de la nouvelle propriété de saut suivant: next-hop-gateway.
Exécuter la commande curl du client vers l'instance de serveur GUA
Pour voir le comportement avant d'ajouter des itinéraires. Exécutez une commande curl à partir de l'instance cliente vers l'adresse IP de server2.
Dans Cloud Shell, connectez-vous à l'instance cliente:
gcloud compute ssh client-instance \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
Dans l'instance cliente, effectuez une requête curl vers le point de terminaison IPv6.
curl -m 5.0 -g -6 'http://[GUA-ipv6-address-of-server2]:80/'
Cette commande curl doit expirer, car le VPC client ne dispose que de sa propre route de sous-réseau et d'une route vers le VPC du serveur 1. Pour pouvoir accéder à la plage d'adresses GUA du VPC server2, vous devez utiliser la passerelle Internet par défaut via une route personnalisée.
Quittez la session SSH pour continuer l'atelier de programmation.
Ajouter une route de passerelle personnalisée dans le VPC client
Dans Cloud Shell, procédez comme suit:
gcloud compute routes create client-to-server2-route \
--project=$projectname \
--destination-range=$server_subnet2 \
--network=client-vpc \
--next-hop-gateway=default-internet-gateway
Revenez à l'instance cliente via SSH:
gcloud compute ssh client-instance \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
Dans l'instance cliente, répétez la même requête curl
curl -m 5.0 -g -6 'http://[GUA-ipv6-address-of-server2]:80/'
Cette commande curl devrait maintenant renvoyer le message d'accueil personnalisé, indiquant que vous avez réussi à atteindre l'adresse IPv6 de l'autre serveur via la passerelle Internet par défaut.
Exemple de résultat :
<user id>@client-instance:~$ curl -m 5.0 -g -6 'http://[2600:1900:4000:71fd:0:0:0:0]:80/'
<!doctype html><html><body><h1>Hello World! From Server2!</h1></body></html>
Quittez la session SSH pour passer à la section de nettoyage de l'atelier.
10. Effectuer un nettoyage
Nettoyer les instances
Dans Cloud Shell, procédez comme suit:
gcloud compute instances delete client-instance --zone us-central1-a --quiet --project=$projectname
gcloud compute instances delete server-instance1 --zone us-central1-a --quiet --project=$projectname
gcloud compute instances delete server-instance2 --zone us-central1-a --quiet --project=$projectname
gcloud compute instances delete gateway-instance --zone us-central1-a --quiet --project=$projectname
Nettoyer les sous-réseaux
Dans Cloud Shell, procédez comme suit:
gcloud compute networks subnets delete client-subnet --region=us-central1 --quiet --project=$projectname
gcloud compute networks subnets delete server-subnet1 --region=us-central1 --quiet --project=$projectname
gcloud compute networks subnets delete server-subnet2 --region=us-central1 --quiet --project=$projectname
Nettoyer les règles de pare-feu
Dans Cloud Shell, procédez comme suit:
gcloud compute firewall-rules delete allow-iap-client --quiet --project=$projectname
gcloud compute firewall-rules delete allow-iap-server1 --quiet --project=$projectname
gcloud compute firewall-rules delete allow-iap-server2 --quiet --project=$projectname
gcloud compute firewall-rules delete allow-gateway-client --quiet --project=$projectname
gcloud compute firewall-rules delete allow-client-server1 --quiet --project=$projectname
gcloud compute firewall-rules delete allow-client-server2 --quiet --project=$projectname
Nettoyer les routes personnalisées
Dans Cloud Shell, procédez comme suit:
gcloud compute routes delete client-to-server1-route --quiet --project=$projectname
gcloud compute routes delete client-to-server2-route --quiet --project=$projectname
gcloud compute routes delete server1-to-client-route --quiet --project=$projectname
Nettoyer les VPC
Dans Cloud Shell, procédez comme suit:
gcloud compute networks delete client-vpc --quiet --project=$projectname
gcloud compute networks delete server-vpc1 --quiet --project=$projectname
gcloud compute networks delete server-vpc2 --quiet --project=$projectname
11. Félicitations
Vous avez correctement utilisé des routes IPv6 statiques personnalisées avec des sauts suivants définis sur next-hop-gateway , next-hop-instance et next-hop-address. Vous avez également validé la communication IPv6 de bout en bout à l'aide de ces routes.
Étape suivante
Découvrez quelques-uns des ateliers de programmation...
- Accéder aux API Google à partir d'hôtes sur site à l'aide d'adresses IPv6
- Options d'adressage IPv4 et IPv6