Interfejs Private Service Connect

1. Wprowadzenie

Interfejs Private Service Connect to zasób, który umożliwia sieci prywatnego środowiska wirtualnego (VPC) producenta inicjowanie połączeń z różnymi miejscami docelowymi w sieci VPC konsumenta. Sieci producentów i konsumentów mogą należeć do różnych projektów i organizacji.

Jeśli przyłącze sieci akceptuje połączenie z interfejsem Private Service Connect, Google Cloud przydziela temu interfejsowi adres IP z podsieci konsumenta określonej przez przyłącze sieci. Sieci konsumentów i producentów są połączone i mogą komunikować się za pomocą wewnętrznych adresów IP.

Połączenie między przyłączem sieci a interfejsem Private Service Connect jest podobne do połączenia między punktem końcowym Private Service Connect a przyłączem usługi, ale ma dwie główne różnice:

  • Przyłącze sieci umożliwia sieci producenta inicjowanie połączeń z siecią konsumenta (wychodzące usługi zarządzane), a punkt końcowy umożliwia sieci konsumenta inicjowanie połączeń z siecią producenta (wejściowe usługi zarządzane).
  • Połączenie interfejsu Private Service Connect jest przechodnie. Oznacza to, że sieć producenta może komunikować się z innymi sieciami połączonymi z siecią konsumenta.

Co utworzysz

W tym samouczku utworzysz kompleksową architekturę interfejsu Private Service Connect (PSC), która wykorzystuje reguły zapory Cloud do zezwalania na połączenia między producentem a elementem obliczeniowym konsumenta i ich odrzucania, jak pokazano na rysunku 1.

Rysunek 1.

d39bf35e55bdf9e6.png

W VPC konsumenta utworzysz pojedynczy załącznik psc-network, który będzie miał zastosowanie w następujących przypadkach:

  1. Tworzenie reguły zapory Cloud Firewall zezwalającej na dostęp z konta bear do konta lion
  2. Tworzenie reguły zapory Cloud Firewall, która odmawia dostępu niedźwiedziowi w przypadku tygrysa
  3. Utwórz regułę zapory Cloud Firewall, aby zezwolić użytkownikowi cosmo na dostęp do konta bear

Czego się nauczysz

  • Tworzenie przyłącza sieci
  • Jak producent może użyć przyłącza sieci do utworzenia interfejsu PSC
  • Jak nawiązać komunikację między producentem a konsumentem
  • Jak zezwolić na dostęp z maszyny wirtualnej producenta (niedźwiedź) do maszyny wirtualnej konsumenta (lew)
  • Jak zablokować dostęp z maszyny wirtualnej producenta (niedźwiedź) do maszyny wirtualnej konsumenta (tygrys)
  • Jak zezwolić na dostęp z maszyny wirtualnej klienta (cosmo) do maszyny wirtualnej producenta (bear)

Czego potrzebujesz

2. Zanim zaczniesz

Aktualizowanie projektu w celu obsługi samouczka

W tym samouczku używamy zmiennych $variables, aby ułatwić implementację konfiguracji gcloud w Cloud Shell.

W Cloud Shell wykonaj te czynności:

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectid=YOUR-PROJECT-NAME
echo $projectid

3. Konfiguracja przez konsumenta

Utwórz środowisko VPC konsumenta

W Cloud Shell wykonaj te czynności:

gcloud compute networks create consumer-vpc --project=$projectid --subnet-mode=custom

Tworzenie podsieci dla użytkowników

W Cloud Shell wykonaj te czynności:

gcloud compute networks subnets create lion-subnet-1 --project=$projectid --range=192.168.20.0/28 --network=consumer-vpc --region=us-central1

W Cloud Shell wykonaj te czynności:

gcloud compute networks subnets create tiger-subnet-1 --project=$projectid --range=192.168.30.0/28 --network=consumer-vpc --region=us-central1

W Cloud Shell wykonaj te czynności:

gcloud compute networks subnets create cosmo-subnet-1 --project=$projectid --range=192.168.40.0/28 --network=consumer-vpc --region=us-central1

Tworzenie podsieci przyłącza sieci Private Service Connect

W Cloud Shell wykonaj te czynności:

gcloud compute networks subnets create intf-subnet --project=$projectid --range=192.168.10.0/28 --network=consumer-vpc --region=us-central1

Konfiguracja Cloud Router i NAT

W samouczku do instalacji pakietu oprogramowania używamy Cloud NAT, ponieważ instancja maszyny wirtualnej nie ma publicznego adresu IP. Cloud NAT umożliwia maszynom wirtualnym z prywatnymi adresami IP dostęp do internetu.

W Cloud Shell utwórz router chmury.

gcloud compute routers create cloud-router-for-nat --network consumer-vpc --region us-central1

W Cloud Shell utwórz bramę NAT.

gcloud compute routers nats create cloud-nat-us-central1 --router=cloud-router-for-nat --auto-allocate-nat-external-ips --nat-all-subnet-ip-ranges --region us-central1

4. Włączanie IAP

Aby umożliwić IAP połączenie z instancjami maszyn wirtualnych, utwórz regułę zapory sieciowej, która:

  • dotyczy wszystkich instancji maszyn wirtualnych, które mają być dostępne przez IAP;
  • Zezwala na ruch przychodzący z zakresu adresów IP 35.235.240.0/20. Ten zakres zawiera wszystkie adresy IP, których IAP używa do przekierowywania TCP.

W Cloud Shell utwórz regułę zapory sieciowej IAP.

gcloud compute firewall-rules create ssh-iap-consumer \
    --network consumer-vpc \
    --allow tcp:22 \
    --source-ranges=35.235.240.0/20

5. Tworzenie instancji maszyn wirtualnych dla użytkowników

W Cloud Shell utwórz instancję maszyny wirtualnej dla klienta o nazwie lion.

gcloud compute instances create lion \
    --project=$projectid \
    --machine-type=e2-micro \
    --image-family debian-11 \
    --no-address \
    --image-project debian-cloud \
    --zone us-central1-a \
    --subnet=lion-subnet-1 \
    --metadata startup-script="#! /bin/bash
      sudo apt-get update
      sudo apt-get install tcpdump
      sudo apt-get install apache2 -y
      sudo service apache2 restart
      echo 'Welcome to the lion app server !!' | tee /var/www/html/index.html
      EOF"

W Cloud Shell utwórz instancję maszyny wirtualnej dla użytkownika o nazwie tiger.

gcloud compute instances create tiger \
    --project=$projectid \
    --machine-type=e2-micro \
    --image-family debian-11 \
    --no-address \
    --image-project debian-cloud \
    --zone us-central1-a \
    --subnet=tiger-subnet-1 \
    --metadata startup-script="#! /bin/bash
      sudo apt-get update
      sudo apt-get install tcpdump
      sudo apt-get install apache2 -y
      sudo service apache2 restart
      echo 'Welcome to the tiger app server !!' | tee /var/www/html/index.html
      EOF"

W Cloud Shell utwórz instancję maszyny wirtualnej dla użytkownika o nazwie cosmo.

gcloud compute instances create cosmo \
    --project=$projectid \
    --machine-type=e2-micro \
    --image-family debian-11 \
    --no-address \
    --image-project debian-cloud \
    --zone us-central1-a \
    --subnet=cosmo-subnet-1 \
    --metadata startup-script="#! /bin/bash
      sudo apt-get update
      sudo apt-get install tcpdump
      sudo apt-get install apache2 -y
      sudo service apache2 restart
      echo 'Welcome to the cosmo app server !!' | tee /var/www/html/index.html
      EOF"

Pobierz i zapisz adresy IP instancji:

W Cloud Shell wykonaj polecenie describe w odniesieniu do instancji maszyn wirtualnych lion i tiger.

gcloud compute instances describe lion --zone=us-central1-a | grep  networkIP:

gcloud compute instances describe tiger --zone=us-central1-a | grep  networkIP:

gcloud compute instances describe cosmo --zone=us-central1-a | grep  networkIP:

6. Przyłącze sieci Private Service Connect

Przyłącza sieci to zasoby regionalne, które reprezentują stronę konsumenta interfejsu Private Service Connect. Pojedynczą podsieć skojarzysz z przyłączem sieci, a producent przypisze adresy IP do interfejsu Private Service Connect z tej podsieci. Podsieć musi znajdować się w tym samym regionie co przyłącze sieci. Przyłącze sieci musi znajdować się w tym samym regionie co usługa producenta.

Tworzenie przyłącza sieci

W Cloud Shell utwórz przyłącze sieci.

gcloud compute network-attachments create psc-network-attachment \
    --region=us-central1 \
    --connection-preference=ACCEPT_MANUAL \
    --producer-accept-list=$projectid \
    --subnets=intf-subnet

Lista przyłączy sieci

W Cloud Shell wyświetl listę przyłączy sieci.

gcloud compute network-attachments list

Opisz przyłącza sieci

W Cloud Shell opisz przyłącze sieci.

gcloud compute network-attachments describe psc-network-attachment --region=us-central1

Zanotuj URI psc-network-attachment, którego producent będzie używać podczas tworzenia interfejsu Private Service Connect. Przykład poniżej:

user@cloudshell$ gcloud compute network-attachments describe psc-network-attachment --region=us-central1 
connectionPreference: ACCEPT_MANUAL
creationTimestamp: '2023-06-06T20:57:12.623-07:00'
fingerprint: 4Yq6xAfaRO0=
id: '3235195049527328503'
kind: compute#networkAttachment
name: psc-network-attachment
network: https://www.googleapis.com/compute/v1/projects/$projectid/global/networks/consumer-vpc
producerAcceptLists:
- $projectid
region: https://www.googleapis.com/compute/v1/projects/$projectid/regions/us-central1
selfLink: https://www.googleapis.com/compute/v1/projects/$projectid/regions/us-central1/networkAttachments/psc-network-attachment
subnetworks:
- https://www.googleapis.com/compute/v1/projects/$projectid/regions/us-central1/subnetworks/intf-subnet

7. Konfiguracja Producer

Utwórz sieć VPC producenta

W Cloud Shell wykonaj te czynności:

gcloud compute networks create producer-vpc --project=$projectid --subnet-mode=custom

Tworzenie podsieci producenta

W Cloud Shell utwórz podsieć używaną dla vNIC0 interfejsu psc.

gcloud compute networks subnets create prod-subnet --project=$projectid --range=10.20.1.0/28 --network=producer-vpc --region=us-central1

8. Włączanie IAP

Aby umożliwić IAP połączenie z instancjami maszyn wirtualnych, utwórz regułę zapory sieciowej, która:

  • dotyczy wszystkich instancji maszyn wirtualnych, które mają być dostępne przez IAP;
  • Zezwala na ruch przychodzący z zakresu adresów IP 35.235.240.0/20. Ten zakres zawiera wszystkie adresy IP, których IAP używa do przekierowywania TCP.

W Cloud Shell utwórz regułę zapory sieciowej IAP.

gcloud compute firewall-rules create ssh-iap-producer \
    --network producer-vpc \
    --allow tcp:22 \
    --source-ranges=35.235.240.0/20

9. Tworzenie interfejsu Private Service Connect

Interfejs Private Service Connect to zasób, który umożliwia sieci prywatnego środowiska wirtualnego (VPC) producenta inicjowanie połączeń z różnymi miejscami docelowymi w sieci VPC konsumenta. Sieci producentów i konsumentów mogą należeć do różnych projektów i organizacji.

Jeśli przyłącze sieci akceptuje połączenie z interfejsem Private Service Connect, Google Cloud przydziela temu interfejsowi adres IP z podsieci konsumenta określonej przez przyłącze sieci. Sieci konsumentów i producentów są połączone i mogą komunikować się za pomocą wewnętrznych adresów IP.

W Cloud Shell utwórz interfejs Private Service Connect (bear) i wstaw zidentyfikowany wcześniej adres URL psc-network-attachment z danych wyjściowych opisanych w przyłączeniu sieci.

gcloud compute instances create bear --zone us-central1-a --machine-type=f1-micro --can-ip-forward --network-interface subnet=prod-subnet,network=producer-vpc,no-address --network-interface network-attachment=https://www.googleapis.com/compute/v1/projects/$projectid/regions/us-central1/networkAttachments/psc-network-attachment

Weryfikacja wielu adresów IP

Sprawdź, czy interfejs PSC jest skonfigurowany z odpowiednim adresem IP. vNIC0 będzie używać prod-subnet producenta (10.20.1.0/28), a vNIC1 będzie używać interfejsu intf-subnet konsumenta (192.168.10.0/28).

gcloud compute instances describe bear --zone=us-central1-a | grep networkIP:

Przykład:

user$ gcloud compute instances describe bear --zone=us-central1-a | grep networkIP:
  networkIP: 10.20.1.2
  networkIP: 192.168.10.2

10. Aktualizowanie reguł zapory sieciowej dla konsumentów

Tworzenie reguły zapory Cloud Firewall, aby zezwolić dostęp z konta niedźwiedź do konta lew

W Cloud Shell utwórz regułę o wyższym priorytecie, która zezwala na wychodzący ruch z zakresu adresów IP podłączenia-podsieć (intf-subnet) do miejsc docelowych w zakresie adresów lwów-podsieć-1.

gcloud compute firewall-rules create allow-limited-egress-to-lion \
    --network=consumer-vpc \
    --action=ALLOW \
    --rules=ALL \
    --direction=EGRESS \
    --priority=1000 \
    --source-ranges="192.168.10.0/28" \
    --destination-ranges="192.168.20.0/28" \
    --enable-logging

W Cloud Shell utwórz regułę zezwalającą na ruch przychodzący, która zastąpi domyślną regułę odmowy ruchu przychodzącego z podsieci psc-network-attachment.

gcloud compute firewall-rules create allow-ingress \
--network=consumer-vpc \
--action=ALLOW \
--rules=ALL \
--direction=INGRESS \
--priority=1000 \
--source-ranges="192.168.10.0/28" \
--enable-logging

Utwórz regułę Cloud Firewall, która odmawia dostępu niedźwiedziowi do wszystkich zakresów (w tym do tygrysów)

W Cloud Shell utwórz regułę o niskim priorytecie, która odrzuca cały ruch wychodzący z zakresu adresów IP podsieci załącznika sieciowego, intf-subnet.

gcloud compute firewall-rules create deny-all-egress \
    --network=consumer-vpc \
    --action=DENY \
    --rules=ALL \
    --direction=EGRESS \
    --priority=65534 \
    --source-ranges="192.168.10.0/28" \
    --destination-ranges="0.0.0.0/0" \
    --enable-logging

Tworzenie reguły zapory Cloud Firewall zezwalającej na dostęp z konta cosmo do konta bear

W Cloud Shell utwórz regułę zezwalającą na ruch przychodzący, która zastąpi domyślną regułę odmowy ruchu przychodzącego z podsieci psc-network-attachment.

gcloud compute firewall-rules create vm-subnet-allow-ingress \
    --network=consumer-vpc \
    --action=ALLOW \
    --rules=ALL \
    --direction=INGRESS \
    --priority=1000 \
    --source-ranges="192.168.40.0/28" \
    --destination-ranges="192.168.10.0/28" \
    --enable-logging

11. Tworzenie tras Linux dla interfejsu PSC

W interfejsie PSC skonfiguruj trasy Linuxa, aby umożliwić producentowi komunikację z podsieciami konsumentów.

Znajdź nazwę gościnnego systemu operacyjnego interfejsu Private Service Connect

Aby skonfigurować routing, musisz znać nazwę gościnnego systemu operacyjnego interfejsu Private Service Connect, która jest inna niż nazwa interfejsu w Google Cloud.

W Cloud Shell otwórz nową kartę i wykonaj te czynności:

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectid=YOUR-PROJECT-NAME
echo $projectid

Zaloguj się na maszynę wirtualną psc-interface, bear, używając IAP w Cloud Shell.

gcloud compute ssh bear --project=$projectid --zone=us-central1-a --tunnel-through-iap

W Cloud Shell uzyskaj adres IP instancji psc-interface.

ip a

Przykład:

user@bear:~$ ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: ens4: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1460 qdisc pfifo_fast state UP group default qlen 1000
    link/ether 42:01:0a:14:01:02 brd ff:ff:ff:ff:ff:ff
    altname enp0s4
    inet 10.20.1.2/32 brd 10.20.1.2 scope global dynamic ens4
       valid_lft 85991sec preferred_lft 85991sec
    inet6 fe80::4001:aff:fe14:102/64 scope link 
       valid_lft forever preferred_lft forever
3: ens5: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1460 qdisc pfifo_fast state UP group default qlen 1000
    link/ether 42:01:c0:a8:0a:02 brd ff:ff:ff:ff:ff:ff
    altname enp0s5
    inet 192.168.10.2/32 brd 192.168.10.2 scope global dynamic ens5
       valid_lft 85991sec preferred_lft 85991sec
    inet6 fe80::4001:c0ff:fea8:a02/64 scope link 
       valid_lft forever preferred_lft forever

Znajdowanie adresu IP bramy interfejsu PSC

Na liście interfejsów sieciowych znajdź i zapisz nazwę interfejsu powiązanego z adresem IP interfejsu Private Service Connect, np. ens5 (vNIC1).

Aby skonfigurować routing, musisz znać adres IP bramy domyślnej interfejsu Private Service Connect.

W Cloud Shell użyjemy interfejsu 1, ponieważ interfejs PSC jest powiązany z vNIC1.

curl http://metadata.google.internal/computeMetadata/v1/instance/network-interfaces/1/gateway -H "Metadata-Flavor: Google" && echo

Przykład wygenerował domyślny adres bramy 192.168.10.1

user@bear:~$ curl http://metadata.google.internal/computeMetadata/v1/instance/network-interfaces/1/gateway -H "Metadata-Flavor: Google" && echo
192.168.10.1

Dodawanie tras dla podsieci klientów indywidualnych

Musisz dodać trasę do domyślnej bramy interfejsu Private Service Connect dla każdej podsieci konsumenta, która łączy się z interfejsem Private Service Connect. Dzięki temu ruch kierowany do sieci konsumenta będzie wychodzić z interfejsu Private Service Connect.

W przypadku niedźwiedzia dodaj trasy do podsieci klientów.

sudo ip route add 192.168.20.0/28 via 192.168.10.1 dev ens5
sudo ip route add 192.168.30.0/28 via 192.168.10.1 dev ens5
sudo ip route add 192.168.40.0/28 via 192.168.10.1 dev ens5

Weryfikacja tabeli tras

W Cloud Shell zweryfikuj nowo dodane trasy.

ip route show

Przykład.

user@bear:~$ ip route show
default via 10.20.1.1 dev ens4 
10.20.1.0/28 via 10.20.1.1 dev ens4 
10.20.1.1 dev ens4 scope link 
192.168.10.0/28 via 192.168.10.1 dev ens5 
192.168.10.1 dev ens5 scope link 
192.168.20.0/28 via 192.168.10.1 dev ens5 
192.168.30.0/28 via 192.168.10.1 dev ens5 
192.168.40.0/28 via 192.168.10.1 dev ens5 

12. Sprawdzanie prawidłowego połączenia niedźwiedź–lew

Sprawdźmy, czy instancja VM producenta (niedźwiedź) może komunikować się z instancją konsumenta (lew) za pomocą funkcji curl.

Z instancji niedźwiedzia wykonaj polecenie curl na adres IP lwa, który został wcześniej zidentyfikowany w tym samouczku.

curl -v <lions IP Address>

Przykład:

user@bear:~$ curl -v 192.168.20.2
*   Trying 192.168.20.2:80...
* Connected to 192.168.20.2 (192.168.20.2) port 80 (#0)
> GET / HTTP/1.1
> Host: 192.168.20.2
> User-Agent: curl/7.74.0
> Accept: */*
> 
* Mark bundle as not supporting multiuse
< HTTP/1.1 200 OK
< Date: Tue, 06 Jun 2023 03:53:08 GMT
< Server: Apache/2.4.56 (Debian)
< Last-Modified: Mon, 05 Jun 2023 19:41:26 GMT
< ETag: "1e-5fd6716a1e11b"
< Accept-Ranges: bytes
< Content-Length: 30
< Content-Type: text/html
< 
Welcome to lion app server !!
* Connection #0 to host 192.168.20.2 left intact

13. Sprawdzanie, czy połączenie między niedźwiedziem a tygrysem jest zablokowane

Sprawdźmy, czy reguła zapory sieciowej dotycząca ruchu wychodzącego blokuje dostęp od niedźwiedzia do tygrysa, korzystając z logów zapory sieciowej.

W nowej sesji konsoli Google Cloud przejdź do Logowanie → Eksplorator logów → wybierz Pokaż zapytanie.

2ae597e6d970cddf.png

Wklej podany niżej ciąg znaków zapytania w polu wyszukiwania, a potem wybierz strumień.

jsonPayload.rule_details.reference="network:consumer-vpc/firewall:deny-all-egress"

30d7bfae315f2ee3.png

Z instancji niedźwiedzia wykonaj curl na adres IP tygrysa, który został wcześniej zidentyfikowany w tym samouczku z instancji niedźwiedzia. W końcu wywołanie curl zostanie przerwane z powodu przekroczenia limitu czasu.

curl -v <tiger's IP Address>

Przykład:

user@bear:~$ curl -v 192.168.30.2 
*   Trying 192.168.30.2:80...
* connect to 192.168.30.2 port 80 failed: Connection timed out
* Failed to connect to 192.168.30.2 port 80: Connection timed out
* Closing connection 0
curl: (28) Failed to connect to 192.168.30.2 port 80: Connection timed out

Sprawdź, czy Eksplorator logów zarejestrował zablokowane logi zapory sieciowej. Aby wyświetlić metadane, wybierz wpis w logu i rozwiń zagnieżdżone pola.

5c42a6587300be55.png

14. Sprawdzanie, czy połączenie z serwerem kosmosu jest udane

Otwórz nową kartę Cloud Shell i zaktualizuj ustawienia projektu.

W Cloud Shell wykonaj te czynności:

gcloud config list project
gcloud config set project [YOUR-PROJECT-NAME]
projectid=YOUR-PROJECT-NAME
echo $projectid

Zaloguj się w instancji cosmo za pomocą IAP w Cloud Shell.

gcloud compute ssh cosmo --project=$projectid --zone=us-central1-a --tunnel-through-iap

W Cloud Shell wykonaj ping do adresu IP vNIV1 niedźwiedzia, który został zidentyfikowany wcześniej w samouczku.

ping <bears vNIC1 IP Address>

Przykład:

user@cosmo:~$ ping 192.168.10.2 -c 5
PING 192.168.10.2 (192.168.10.2) 56(84) bytes of data.
64 bytes from 192.168.10.2: icmp_seq=1 ttl=64 time=0.277 ms
64 bytes from 192.168.10.2: icmp_seq=2 ttl=64 time=0.288 ms
64 bytes from 192.168.10.2: icmp_seq=3 ttl=64 time=0.265 ms
64 bytes from 192.168.10.2: icmp_seq=4 ttl=64 time=0.264 ms
64 bytes from 192.168.10.2: icmp_seq=5 ttl=64 time=0.366 ms

15. Czyszczenie danych

W Cloud Shell usuń komponenty samouczka.

gcloud compute instances delete bear --zone=us-central1-a --quiet

gcloud compute instances delete lion --zone=us-central1-a --quiet

gcloud compute instances delete tiger --zone=us-central1-a --quiet

gcloud compute instances delete cosmo --zone=us-central1-a --quiet

gcloud compute network-attachments delete psc-network-attachment --region=us-central1 --quiet

gcloud compute firewall-rules delete allow-ingress allow-limited-egress-to-lion deny-all-egress ssh-iap-consumer ssh-iap-producer vm-subnet-allow-ingress --quiet

gcloud compute networks subnets delete cosmo-subnet-1 intf-subnet lion-subnet-1 prod-subnet tiger-subnet-1 --region=us-central1 --quiet

gcloud compute routers delete cloud-router-for-nat --region=us-central1 --quiet 

gcloud compute networks delete consumer-vpc --quiet

gcloud compute networks delete producer-vpc --quiet

16. Gratulacje

Gratulacje! Dzięki wdrożeniu reguł zapory sieciowej udało Ci się skonfigurować i sprawdzać interfejs Private Service Connect oraz łączność konsumentów i producentów.

Utworzono infrastrukturę konsumenta i dodano do niej przyłącze sieciowe, które umożliwiło producentowi utworzenie maszyny wirtualnej z wieloma interfejsami sieciowymi, aby umożliwić komunikację między konsumentem a producentem. Dowiedz się, jak utworzyć reguły zapory sieciowej w sieci VPC konsumenta, które umożliwiają połączenia z instancjami w VPC konsumenta i producenta.

Cosmopup uważa, że samouczki są świetne.

e6d3675ca7c6911f.jpeg

Co dalej?

Zapoznaj się z tymi samouczkami:

Więcej informacji i filmy

Dokumenty referencyjne