1. מבוא
נתיבים מותאמים אישית סטטיים משפיעים על התנהגות ברירת המחדל של הניתוב ב-VPC. מסלולים מותאמים אישית של IPv6 תומכים עכשיו במאפייני צעד נוסף חדשים: next-hop-gateway, next-hop-instance ו-next-hop-address. ב-codelab הזה מוסבר איך להשתמש בנתיבים מותאמים אישית של IPv6 עם אפשרויות ה-next-hop החדשות האלה באמצעות שתי רשתות VPC שמחוברות באמצעות מכונה וירטואלית עם כמה כרטיסי NIC. בנוסף, תראו איך לשלב כתובות ULA ו-GUA, ואיך לספק גישה ל-VPC של ULA לאינטרנט הציבורי באמצעות היכולת החדשה של נתיב מותאם אישית.
מה תלמדו
- איך יוצרים נתיב IPv6 מותאם אישית עם צעד נוסף (next-hop) מסוג next-hop-ilb על ידי ציון השם של ה-ILB
- איך יוצרים נתיב IPv6 מותאם אישית עם צעד נוסף (next-hop) מסוג next-hop-ilb על ידי ציון כתובת ה-IPv6 של ה-ILB
מה נדרש
- פרויקט ב-Google Cloud
2. לפני שמתחילים
עדכון הפרויקט כך שיתמוך ב-codelab
ב-Codelab הזה נעשה שימוש במשתני $כדי לעזור בהטמעת הגדרות gcloud ב-Cloud Shell.
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
export projectname=$(gcloud config list --format="value(core.project)")
הארכיטקטורה הכללית של Lab
כדי להדגים את שני הסוגים של צמתים קרובים בהתאמה אישית של נתיב, ניצור 2 רשתות VPC: רשת VPC של לקוח ורשת VPC של שרת שמשתמשות בכתובות ULA.
כדי לאפשר ל-VPC של הלקוח לגשת לשרת, צריך להשתמש במסלול בהתאמה אישית באמצעות next-hop-ilb שמצביע על ILB (באמצעות שם ה-ILB) מול קבוצה של מכונות של שער עם כמה כרטיסי NIC שממוקמות בין שני ILBs. כדי לספק ניתוב חזרה למכונה של הלקוח (אחרי מחיקת נתיב ברירת המחדל ::/0), צריך להשתמש בנתיב מותאם אישית עם next-hop-ilb (באמצעות כתובת ה-ILB) שמצביע על ה-ILB.
3. הגדרת VPC של לקוח
יצירת VPC של הלקוח
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute networks create client-vpc \
--project=$projectname \
--subnet-mode=custom --mtu=1500 \
--bgp-routing-mode=regional \
--enable-ula-internal-ipv6
יצירת תת-הרשת של הלקוח
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute networks subnets create client-subnet \
--network=client-vpc \
--project=$projectname \
--range=192.168.1.0/24 \
--stack-type=IPV4_IPV6 \
--ipv6-access-type=internal \
--region=us-central1
מתעדים את רשת המשנה של IPv6 שהוקצה במשתנה סביבה באמצעות הפקודה הבאה
export client_subnet=$(gcloud compute networks subnets \
describe client-subnet \
--project $projectname \
--format="value(internalIpv6Prefix)" \
--region us-central1)
הפעלת מכונה של לקוח
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute instances create client-instance \
--subnet client-subnet \
--stack-type IPV4_IPV6 \
--zone us-central1-a \
--project=$projectname
הוספת כלל של חומת אש לתעבורת הנתונים של VPC של לקוח
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute firewall-rules create allow-gateway-client \
--direction=INGRESS --priority=1000 \
--network=client-vpc --action=ALLOW \
--rules=tcp --source-ranges=$client_subnet \
--project=$projectname
מוסיפים כלל של חומת אש שמאפשר IAP למכונה של הלקוח
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute firewall-rules create allow-iap-client \
--direction=INGRESS --priority=1000 \
--network=client-vpc --action=ALLOW \
--rules=tcp:22 --source-ranges=35.235.240.0/20 \
--project=$projectname
אימות הגישה ל-SSH במכונה של הלקוח
ב-Cloud Shell, מתחברים למכונה של הלקוח:
gcloud compute ssh client-instance \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
אם הפעולה תתבצע בהצלחה, יוצג חלון מסוף ממכונת הלקוח. יוצאים מסשן ה-SSH כדי להמשיך בקודלאב.
4. הגדרת VPC בשרת
יצירת VPC של השרת
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute networks create server-vpc \
--project=$projectname \
--subnet-mode=custom --mtu=1500 \
--bgp-routing-mode=regional \
--enable-ula-internal-ipv6
יצירת רשתות המשנה של השרת
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute networks subnets create server-subnet \
--network=server-vpc \
--project=$projectname \
--range=192.168.0.0/24 \
--stack-type=IPV4_IPV6 \
--ipv6-access-type=internal \
--region=us-central1
מתעדים את תת-הרשת שהוקצה במשתנה סביבה באמצעות הפקודה הבאה:
export server_subnet=$(gcloud compute networks subnets \
describe server-subnet \
--project $projectname \
--format="value(internalIpv6Prefix)" \
--region us-central1)
הפעלת שרת VM
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute instances create server-instance \
--subnet server-subnet \
--stack-type IPV4_IPV6 \
--zone us-central1-a \
--project=$projectname
הוספת כלל של חומת אש כדי לאפשר גישה לשרת מהלקוח
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute firewall-rules create allow-client-server \
--direction=INGRESS --priority=1000 \
--network=server-vpc --action=ALLOW \
--rules=tcp --source-ranges=$client_subnet \
--project=$projectname
הוספת כלל לחומת האש כדי לאפשר IAP
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute firewall-rules create allow-iap-server \
--direction=INGRESS --priority=1000 \
--network=server-vpc --action=ALLOW \
--rules=tcp:22 \
--source-ranges=35.235.240.0/20 \
--project=$projectname
התקנת Apache במכונה של שרת ULA
ב-Cloud Shell, מתחברים למכונה של הלקוח:
gcloud compute ssh server-instance \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
בתוך המעטפת של שרת ה-VM, מריצים את הפקודה הבאה:
sudo apt update && sudo apt -y install apache2
מוודאים ש-Apache פועל
sudo systemctl status apache2
החלפת דף האינטרנט שמוגדר כברירת מחדל
echo '<!doctype html><html><body><h1>Hello World! From Server Instance!</h1></body></html>' | sudo tee /var/www/html/index.html
יוצאים מסשן ה-SSH כדי להמשיך בקודלאב.
5. יצירת מכונות Gateway
יצירת תבנית למכונה של שער עם כמה כרטיסי NIC
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute instance-templates create gateway-instance-template \
--project=$projectname \
--instance-template-region=us-central1 \
--region=us-central1 \
--network-interface=stack-type=IPV4_IPV6,subnet=client-subnet,no-address \
--network-interface=stack-type=IPV4_IPV6,subnet=server-subnet,no-address \
--can-ip-forward \
--metadata=startup-script='#! /bin/bash
sudo sysctl -w net.ipv6.conf.ens4.accept_ra=2
sudo sysctl -w net.ipv6.conf.ens5.accept_ra=2
sudo sysctl -w net.ipv6.conf.ens4.accept_ra_defrtr=1
sudo sysctl -w net.ipv6.conf.all.forwarding=1'
יצירת קבוצה של מכונות שער עם כמה כרטיסי NIC
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute instance-groups managed create gateway-instance-group \
--project=$projectname \
--base-instance-name=gateway-instance \
--template=projects/$projectname/regions/us-central1/instanceTemplates/gateway-instance-template \
--size=2 \
--zone=us-central1-a
אימות מכונות השער
כדי לוודא שסקריפט ההפעלה הועבר בצורה נכונה וטבלת הניתוב של v6 נכונה. SSH לאחת ממכונות השער
ב-Cloud Shell, מריצים את הפקודה הבאה כדי להציג את רשימת המכונות של השער:
gcloud compute instances list \
--project=$projectname \
--zones=us-central1-a \
--filter name~gateway \
--format 'csv(name)'
מציינים אחד משמות המכונות ומשתמשים בו בפקודה הבאה כדי להתחבר למכונה באמצעות SSH.
ב-Cloud Shell, מתחברים לאחת ממכונות השער
gcloud compute ssh gateway-instance-<suffix> \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
כדי לבדוק את העברת ה-IPv6, מריצים את הפקודה הבאה בתוך המעטפת של מכונה וירטואלית של השער:
sudo sysctl net.ipv6.conf.all.forwarding
הפקודה אמורה להחזיר את הערך '1', שמציין שהעברת IPv6 מופעלת.
אימות טבלת הניתוב של IPv6 במכונה
ip -6 route show
פלט לדוגמה שבו מוצגים גם נתיבי תת-רשת של ULA וגם נתיבי תת-רשת של GUA, כאשר מסלול ברירת המחדל מפנה לממשק GUA.
::1 dev lo proto kernel metric 256 pref medium
2600:1900:4000:7a7f:0:1:: dev ens4 proto kernel metric 256 expires 83903sec pref medium
2600:1900:4000:7a7f::/65 via fe80::4001:c0ff:fea8:101 dev ens4 proto ra metric 1024 expires 88sec pref medium
fd20:3df:8d5c::1:0:0 dev ens5 proto kernel metric 256 expires 83904sec pref medium
fd20:3df:8d5c::/64 via fe80::4001:c0ff:fea8:1 dev ens5 proto ra metric 1024 expires 84sec pref medium
fe80::/64 dev ens5 proto kernel metric 256 pref medium
fe80::/64 dev ens4 proto kernel metric 256 pref medium
default via fe80::4001:c0ff:fea8:101 dev ens4 proto ra metric 1024 expires 88sec pref medium
יוצאים מסשן ה-SSH כדי להמשיך בקודלאב.
6. יצירת רכיבים של מאזן עומסים
כדי שנוכל ליצור מסלולים בשני ה-VPC, נצטרך ליצור מאזני עומסים פנימיים מסוג passthrough משני צידי מכונות השער כדי להעביר את התנועה.
מאזני העומסים שנוצרים בקודלאב הזה מורכבים מ:
- בדיקת תקינות: בסדנת הקוד הזו ניצור בדיקות תקינות פשוטות שמטרגטות את יציאה 22. שימו לב שבדיקות התקינות לא יפעלו כפי שהן נפרסו (הדבר כרוך בהוספת כללי חומת אש כדי לאפשר בדיקות התקינות וליצור מסלולים מיוחדים במכונות השער). מאחר שהקודלאב הזה מתמקד בהעברת IPv6, נשתמש בהתנהגות ברירת המחדל של מאזני עומסים פנימיים מסוג pass-through בחלוקת התנועה כשכל הקצוות העורפיים לא תקינים, כלומר, להעביר את הבקשות לכל הקצוות העורפיים בתור מוצא אחרון.
- שירות לקצה עורפי: נשתמש בפרוטוקול TCP לשירות לקצה העורפי. עם זאת, מאחר שמאזני העומסים נוצרים למטרות ניתוב, כל הפרוטוקולים מועברים ללא קשר לפרוטוקול של שירות הקצה העורפי.
- כלל העברה: אנחנו יוצרים כלל העברה לכל VPC .
- כתובת IPv6 פנימית: בסדנת הקוד הזו, נאפשר לכלל ההעברה להקצות כתובות IPv6 באופן אוטומטי מרשת המשנה
יצירת בדיקת תקינות
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute health-checks create tcp tcp-hc-22 \
--project=$projectname \
--region=us-central1 \
--port=22
יצירת שירותים לקצה העורפי
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute backend-services create bes-ilb-clientvpc \
--project=$projectname \
--load-balancing-scheme=internal \
--protocol=tcp \
--network=client-vpc \
--region=us-central1 \
--health-checks=tcp-hc-22 \
--health-checks-region=us-central1
gcloud compute backend-services create bes-ilb-servervpc \
--project=$projectname \
--load-balancing-scheme=internal \
--protocol=tcp \
--network=server-vpc \
--region=us-central1 \
--health-checks=tcp-hc-22 \
--health-checks-region=us-central1
הוספת קבוצת מכונות לשירות לקצה העורפי
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute backend-services add-backend bes-ilb-clientvpc \
--project=$projectname \
--region=us-central1 \
--instance-group=gateway-instance-group \
--instance-group-zone=us-central1-a
gcloud compute backend-services add-backend bes-ilb-servervpc \
--project=$projectname \
--region=us-central1 \
--instance-group=gateway-instance-group \
--instance-group-zone=us-central1-a
יצירת כללי העברה
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute forwarding-rules create fr-ilb-clientvpc \
--project=$projectname \
--region=us-central1 \
--load-balancing-scheme=internal \
--network=client-vpc \
--subnet=client-subnet \
--ip-protocol=TCP \
--ip-version=IPV6 \
--ports=ALL \
--backend-service=bes-ilb-clientvpc \
--backend-service-region=us-central1
gcloud compute forwarding-rules create fr-ilb-servervpc \
--project=$projectname \
--region=us-central1 \
--load-balancing-scheme=internal \
--network=server-vpc \
--subnet=server-subnet \
--ip-protocol=TCP \
--ip-version=IPV6 \
--ports=ALL \
--backend-service=bes-ilb-servervpc \
--backend-service-region=us-central1
כדי לתעד את כתובות ה-IPv6 של שני כללי ההעברה, מריצים את הפקודות הבאות ב-Cloudshell:
export fraddress_client=$(gcloud compute forwarding-rules \
describe fr-ilb-clientvpc \
--project $projectname \
--format="value(IPAddress)" \
--region us-central1)
export fraddress_server=$(gcloud compute forwarding-rules \
describe fr-ilb-servervpc \
--project $projectname \
--format="value(IPAddress)" \
--region us-central1)
7. יצירת מסלולים למאזני עומסים ובדיקה שלהם (באמצעות כתובת מאזן העומסים)
בקטע הזה תוסיפו מסלולים גם ל-VPC של הלקוח וגם ל-VPC של השרת, באמצעות כתובות ה-IPv6 של מאזני העומסים בתור ה-hop הבא.
מציינים את כתובות השרתים
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute instances list \
--project $projectname \
--zones us-central1-a \
--filter="name~server-instance" \
--format='value[separator=","](name,networkInterfaces[0].ipv6Address)'
הפקודה הזו אמורה להציג את השמות של מכונות השרת ואת הקידומות של IPv6 שלהן. פלט לדוגמה
server-instance,fd20:3df:8d5c:0:0:0:0:0
חשוב לזכור את כתובת השרת, כי תצטרכו להשתמש בה בהמשך בפקודות curl ממכונת הלקוח. לצערנו, אי אפשר להשתמש בקלות במשתני סביבה כדי לאחסן את הפרטים האלה, כי הם לא מועברים במהלך סשנים של SSH.
הפעלת הפקודה curl מהלקוח למכונה של שרת ULA
כדי לראות את ההתנהגות לפני שמוסיפים מסלולים חדשים. מריצים פקודת curl ממכונת הלקוח אל server-instance1.
ב-Cloud Shell, מתחברים למכונה של הלקוח:
gcloud compute ssh client-instance \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
בתוך המכונה של הלקוח, מבצעים קריאה ל-curl באמצעות כתובת ה-ULA IPV6 של המכונה server1 (הפקודה מגדירה זמן קצוב קצר של 5 שניות כדי למנוע המתנה ארוכה מדי של curl)
curl -m 5.0 -g -6 'http://[ULA-ipv6-address-of-server1]:80/'
הפקודה curl הזו אמורה לפוג כי עדיין אין ל-VPC של הלקוח נתיב ל-VPC של השרת.
ננסה לפתור את זה. יוצאים מסשן ה-SSH בינתיים.
הוספת נתיב מותאם אישית ב-VPC של הלקוח
מכיוון שב-VPC של הלקוח חסר מסלול לקידומת ה-ULA. עכשיו נוסיף אותו על ידי יצירת נתיב שמצביע על ה-ILB בצד הלקוח לפי כתובת.
הערה: למאזני עומסים פנימיים מסוג IPv6 עם תמיכה ב-passthrough מוקצות כתובות /96. צריך להסיר את המסכה /96 מהכתובת לפני שמעבירים אותה לפקודה הבאה. (בהמשך נעשה שימוש בהחלפה במקום ב-bash)
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute routes create client-to-server-route \
--project=$projectname \
--destination-range=$server_subnet \
--network=client-vpc \
--next-hop-ilb=${fraddress_client//\/96}
מתחברים חזרה למכונה של הלקוח באמצעות SSH:
gcloud compute ssh client-instance \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
בתוך מכונה של לקוח, מנסים שוב את הפקודה curl למכונה של השרת. (הפקודה מגדירה זמן קצוב קצר של 5 שניות כדי למנוע מ-curl להמתין זמן רב מדי)
curl -m 5.0 -g -6 'http://[ULA-ipv6-address-of-server1]:80/'
עדיין חל זמן קצוב לתפוגה של הפקודה curl כי עדיין אין ל-VPC של השרת נתיב חזרה ל-VPC של הלקוח דרך מכונה של שער.
יוצאים מסשן ה-SSH כדי להמשיך בקודלאב.
הוספת נתיב מותאם אישית ב-VPC של שרת
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute routes create server-to-client-route \
--project=$projectname \
--destination-range=$client_subnet \
--network=server-vpc \
--next-hop-ilb=${fraddress_server//\/96}
מתחברים חזרה למכונה של הלקוח באמצעות SSH:
gcloud compute ssh client-instance \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
בתוך מכונה של לקוח, מנסים לבצע שוב את הפקודה curl למכונה של השרת.
curl -m 5.0 -g -6 'http://[ULA-ipv6-address-of-server1]:80/'
הפקודה curl פועלת עכשיו, ומראה שיש לכם יכולת גישה מקצה לקצה ממכונת הלקוח למכונת השרת של ה-ULA. אפשרות החיבור הזו אפשרית עכשיו רק באמצעות שימוש בנתיבים מותאמים אישית של IPv6 עם next-hop-ilb בתור צמתים הבאים.
פלט לדוגמה
<user id>@client-instance:~$ curl -m 5.0 -g -6 'http://[fd20:3df:8d5c:0:0:0:0:0]:80/'
<!doctype html><html><body><h1>Hello World! From Server Instance!</h1></body></html>
יוצאים מסשן ה-SSH כדי להמשיך בקודלאב.
8. יצירת מסלולים למאזני עומסים ובדיקה שלהם (באמצעות שם מאזן העומסים)
לחלופין, אפשר להפנות את next-hop-ilb לשם של מאזן העומסים במקום לכתובת ה-IPv6 שלו. בקטע הזה נסביר איך עושים את זה ובודקים שהקישוריות בין הלקוח לשרת עדיין תקינה.
מחיקה של מסלולים קודמים
נמחק את הנתיבים המותאמים אישית שמשתמשים בשם המכונה כדי לשחזר את הסביבה למצב שהיה לפני הוספת הנתיבים המותאמים אישית.
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute routes delete client-to-server-route --quiet --project=$projectname
gcloud compute routes delete server-to-client-route --quiet --project=$projectname
הפעלת הפקודה curl מהלקוח למכונה של שרת ULA
כדי לוודא שהמסלולים הקודמים נמחקו, מריצים את הפקודה curl ממכונת הלקוח לעבר server-instance1.
ב-Cloud Shell, מתחברים למכונה של הלקוח:
gcloud compute ssh client-instance \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
בתוך המכונה של הלקוח, מבצעים קריאה ל-curl באמצעות כתובת ה-ULA IPV6 של המכונה server1 (הפקודה מגדירה זמן קצוב קצר של 5 שניות כדי למנוע המתנה ארוכה מדי של curl)
curl -m 5.0 -g -6 'http://[ULA-ipv6-address-of-server1]:80/'
לפקודת ה-curl הזו אמורה לפוג זמן קצוב, כי ל-VPC של הלקוח אין יותר נתיב ל-VPC של השרת.
הוספת נתיבים מותאמים אישית ב-VPC של לקוח וב-VPC של שרת
נוסיף מחדש את המסלולים המותאמים אישית גם ב-VPC של הלקוח וגם ב-VPC של השרת, אבל במקום להשתמש בכתובת של ה-ILB, נשתמש בשם ובאזור של ה-ILB בפקודה.
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute routes create client-to-server-route \
--project=$projectname \
--destination-range=$server_subnet \
--network=client-vpc \
--next-hop-ilb=fr-ilb-clientvpc \
--next-hop-ilb-region=us-central1
gcloud compute routes create server-to-client-route \
--project=$projectname \
--destination-range=$client_subnet \
--network=server-vpc \
--next-hop-ilb=fr-ilb-servervpc \
--next-hop-ilb-region=us-central1
מתחברים חזרה למכונה של הלקוח באמצעות SSH:
gcloud compute ssh client-instance \
--project=$projectname \
--zone=us-central1-a \
--tunnel-through-iap
בתוך מכונה של לקוח, מנסים שוב את הפקודה curl למכונה של השרת. (הפקודה מגדירה זמן קצוב קצר של 5 שניות כדי למנוע מ-curl להמתין זמן רב מדי)
curl -m 5.0 -g -6 'http://[ULA-ipv6-address-of-server1]:80/'
הפקודה curl פועלת עכשיו, ומראה שיש לכם יכולת גישה מקצה לקצה ממכונת הלקוח למכונת השרת של ה-ULA.
9. הסרת המשאבים
ניקוי של נתיבים מותאמים אישית
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute routes delete client-to-server-route --quiet --project=$projectname
gcloud compute routes delete server-to-client-route --quiet --project=$projectname
הסרת רכיבי LB
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute forwarding-rules delete fr-ilb-clientvpc --region us-central1 --quiet --project=$projectname
gcloud compute forwarding-rules delete fr-ilb-servervpc --region us-central1 --quiet --project=$projectname
gcloud compute backend-services delete bes-ilb-clientvpc --region us-central1 --quiet --project=$projectname
gcloud compute backend-services delete bes-ilb-servervpc --region us-central1 --quiet --project=$projectname
gcloud compute health-checks delete tcp-hc-22 --region us-central1 --quiet --project=$projectname
ניקוי המכונות ותבנית המכונה
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute instances delete client-instance --zone us-central1-a --quiet --project=$projectname
gcloud compute instances delete server-instance --zone us-central1-a --quiet --project=$projectname
gcloud compute instance-groups managed delete gateway-instance-group --zone us-central1-a --quiet --project=$projectname
gcloud compute instance-templates delete gateway-instance-template --region us-central1 --quiet --project=$projectname
ניקוי תת-רשתות
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute networks subnets delete client-subnet --region=us-central1 --quiet --project=$projectname
gcloud compute networks subnets delete server-subnet --region=us-central1 --quiet --project=$projectname
ניקוי כללי חומת האש
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute firewall-rules delete allow-iap-client --quiet --project=$projectname
gcloud compute firewall-rules delete allow-iap-server --quiet --project=$projectname
gcloud compute firewall-rules delete allow-gateway-client --quiet --project=$projectname
gcloud compute firewall-rules delete allow-client-server --quiet --project=$projectname
הסרת רשתות VPC
ב-Cloud Shell, מבצעים את הפעולות הבאות:
gcloud compute networks delete client-vpc --quiet --project=$projectname
gcloud compute networks delete server-vpc --quiet --project=$projectname
10. מזל טוב
השתמשתם בהצלחה במסלולי IPv6 מותאמים אישית סטטיים עם next-hops שהוגדר כ-next-hop-ilb. בנוסף, אימתתם תקשורת IPv6 מקצה לקצה באמצעות המסלולים האלה.
מה השלב הבא?
כדאי לעיין בחלק מהקורסים האלה ב-Codelab…
- גישה ל-Google APIs ממארח מקומי באמצעות כתובות IPv6
- אפשרויות כתובות IP מסוג IPv4 ו-IPv6
- שימוש במכונה של צעד ניתוב הבא, בכתובת של צעד הניתוב הבא ובשער של צעד הניתוב הבא בניתוב סטטי IPv6