סטרימינג של נתונים בענן מרובה

1. מבוא

b412875666fceda8.png

העדכון האחרון: 8 בפברואר 2022

למה צריך סטרימינג מריבוי עננים?

עסקים מחפשים באופן פעיל לפזר את עומסי העבודה שלהם על פלטפורמות ענן מרובות, כי יש כמה יתרונות לאימוץ של כמה ספקי ענן בתהליך העבודה התפעולי של העסק, כמו:

  • נעילת ספק
  • צמצום הסיכון להמשכיות עסקית
  • יחסי תלות והסתמכות על סטאק טכנולוגיות אחד

מה תפַתחו

ב-Codelab הזה תלמדו איך להגדיר העברת נתונים בזמן אמת בין כמה עננים – AWS ו-GCP – באמצעות Confluent Cloud. תצטרכו:

  • הגדרת אשכול Kafka ייעודי ב-Confluent Cloud ב-GCP.
  • מגדירים קישור בין רשתות שכנות של VPC בין Confluent Cloud לבין פרויקט GCP, כדי שאפשר יהיה לגשת אליו ברשת פרטית.
  • מגדירים מנהרת VPN בין פרויקט AWS לפרויקט GCP כדי שהמשאבים בשני ספקי הענן יוכלו להתחבר.
  • גישה ל-Confluent Kafka מ-AWS והגדרה של פייפליין סטרימינג מ-AWS ל-GCP באמצעות Confluent Kafka Cloud.

מה תלמדו

  • איך מגדירים קישור בין רשתות VPC שכנות (peering) בין Confluent Cloud Kafka לבין פרויקט GCP.
  • איך מגדירים מנהרת VPN בין פרויקטים ב-AWS וב-GCP.
  • איך לגשת ל-Confluent Cloud שמתארח ב-GCP מפרויקט AWS.

ה-Codelab הזה מתמקד ביצירת סטרימינג של נתונים בכמה עננים. מושגים ובלוקים של קוד שלא רלוונטיים מוצגים בקצרה, ואתם יכולים פשוט להעתיק ולהדביק אותם.

מה תצטרכו

  • גישה לפרויקט ב-AWS.
  • גישה לפרויקט GCP.
  • ניסיון ב-GCP וב-AWS Cloud.
  • מינוי ל-Confluent Kafka מ-GCP Marketplace.

2. תהליך ההגדרה

הגדרת חיבור ה-VPN בין AWS ל-GCP

  • בהדגמה הזו נעשה שימוש ב-VPC שמוגדר כברירת מחדל (asia-southeast1) ב-GCP וב-ng-vpc-103-mum (ap-south1) ב-AWS.

eac371e8af07fc0c.png

c76e9c670e4f8cca.png

  • ב-AWS, יוצרים את Customer Gateway ואת Virtual Private Gateway ‏ (VPG). מצרפים את ה-VPG ל-AWS VPC.

55a075a6b951b5df.png

fe23f4315e9369ec.png

  • יוצרים את חיבור ה-VPN בין האתרים ב-AWS.

4c59066457f3ff9.png a2dde7c3e7cf82e9.png

  • מורידים את קובץ התצורה של המנהרה שנוצרה ב-AWS. בחירה
  • ספק : כללי
  • פלטפורמה : כללית
  • תוכנה : לא תלויה בספק
  • גרסת Ike : ‏ Ikev2
  • יוצרים את שער ה-VPN ואת מנהרת ה-VPN ב-GCP.

8d167a30913a46e1.png

מזינים את כתובת ה-IP ואת מפתח Ikev2 מקובץ התצורה של AWS שהורד עבור שתי המנהרות.

  • בסיום, המנהרה אמורה להיות פעילה ב-AWS וב-GCP.

baca51d151d7c40.png

ceefee82994ef2d4.png

הגדרת המנהרה הושלמה.

  • בוחרים בלוק CIDR שישמש להגדרת Confluent Cloud. מוסיפים את זה למנהרת ה-VPN כנתיב סטטי ב-AWS.

219fa91dc84bd751.png

Confluent Kafka בזירת המסחר של GCP

  • נרשמים למינוי Confluent Kafka מ-GCP Marketplace.

380b8221724e91d7.png

  • מתחברים ל-Confluent Cloud ויוצרים אשכול ייעודי

54611bb3ba91a867.png

7e3b9fec07478fc5.png

  • צריך לספק את מזהה הפרויקט ב-GCP יחד עם פרטי רשת ה-VPC לקישור.

544ea2152de6d447.png

  • משלימים את הקישור בין רשתות שכנות ב-GCP באמצעות פרטי רשת האשכול של Confluent Cloud שסופקו.

a791c93028f46a10.png

  • האשכול Confluent Cloud פעיל ומקושר ל-GCP עכשיו.

c9ebd43fab4a8db6.png

  • בודקים את הקישוריות ל-Confluent Cluster מ-GCP.
  • יוצרים מופע GCE ומתקינים את Python3.
  • יצירת מפתח לקוח Python ב-Confluent Cloud

969ce69a57fda7db.png

  • מריצים את סקריפט הבדיקה producer.py ממופע GCP:

aaede917f462b5b9.png

  • עכשיו מורידים את בסיס הקוד לדוגמה במכונת ה-AWS ומריצים את הסקריפט producer.py כדי לבדוק את הקישוריות ההיברידית ל-Confluent Cloud מ-GCP.

94da3d8c20f8b234.png

3. מזל טוב

הצלחתם לבנות פלטפורמת סטרימינג של Confluent Kafka מרובת עננים וחוצת אזורים בין AWS לבין GCP.

האם ה-Codelabs האלה היו מועילים?**?**

כדאי לעיין ב-Codelabs הבאים…

קריאה נוספת