1. परिचय
इस कोडलैब में, आपको BigQuery में एक मशीन लर्निंग (एमएल) मॉडल बनाना है. साथ ही, ABAP SDK for Google Cloud का इस्तेमाल करके, इस मॉडल से अनुमान पाने हैं.
आपको Google Cloud की इन सेवाओं का इस्तेमाल करना होगा:
- BigQuery
- Cloud Shell
आपको क्या बनाना है
आपको ये चीज़ें बनानी होंगी:
- BigQuery मशीन लर्निंग (एमएल) मॉडल.
- BigQuery API को कॉल करने के लिए, BigQuery Job User की भूमिका वाला सेवा खाता.
- BigQuery API को कॉल करने और एमएल मॉडल से अनुमान पाने के लिए ABAP प्रोग्राम.
2. ज़रूरी शर्तें
- कोई ब्राउज़र, जैसे कि Chrome या Firefox.
- बिलिंग की सुविधा वाला Google Cloud प्रोजेक्ट या Google Cloud Platform के लिए, 90 दिनों के लिए बिना किसी शुल्क के आज़माने वाला खाता बनाएं.
- आपके सिस्टम में SAP GUI (Windows या Java) इंस्टॉल हो. अगर आपके लैपटॉप पर SAP GUI पहले से इंस्टॉल है, तो वीएम के बाहरी आईपी पते को ऐप्लिकेशन सर्वर आईपी के तौर पर इस्तेमाल करके, SAP से कनेक्ट करें. अगर आपके पास Mac है, तो इस लिंक पर जाकर, SAP GUI for Java भी इंस्टॉल किया जा सकता है.
3. शुरू करने से पहले
- Google Cloud Console में, प्रोजेक्ट चुनने वाले पेज पर जाकर, Google Cloud प्रोजेक्ट चुनें या बनाएं. उदाहरण के लिए:
abap-sdk-poc
. - पक्का करें कि आपके Cloud प्रोजेक्ट के लिए बिलिंग चालू हो. किसी प्रोजेक्ट के लिए बिलिंग चालू है या नहीं, यह देखने का तरीका जानें. अगर 90 दिनों के लिए बिना शुल्क आज़माने वाले खाते का इस्तेमाल किया जा रहा है, तो यह चरण छोड़ दें.
- आपको Cloud Shell का इस्तेमाल करना होगा. यह Google Cloud में चलने वाला कमांड-लाइन एनवायरमेंट है.
- Cloud Console में, सबसे ऊपर दाएं कोने में मौजूद Cloud Shell चालू करें पर क्लिक करें:
- अपने खाते की पुष्टि करने और डिफ़ॉल्ट प्रोजेक्ट को
abap-sdk-poc
पर सेट करने के लिए, Cloud Shell में ये कमांड चलाएं. ज़ोनus-west4-b
का इस्तेमाल उदाहरण के तौर पर किया गया है. अगर ज़रूरी हो, तो अपनी पसंद के हिसाब से, यहां दिए गए कमांड में प्रोजेक्ट और ज़ोन बदलें.
gcloud auth login
gcloud config set project abap-sdk-poc
gcloud config set compute/zone us-west4-b
- आपके पास ABAP SDK for Google Cloud इंस्टॉल किया हुआ SAP सिस्टम होना चाहिए.
- इस कोडलैब को पूरा करने से पहले, आपको कोडलैब 1 (Google Cloud Platform पर ABAP Platform Trial 1909 इंस्टॉल करना और Google Cloud के लिए ABAP SDK इंस्टॉल करना) और कोडलैब 2 (Compute Engine VM पर होस्ट किए गए SAP के लिए, टोकन का इस्तेमाल करके ABAP SDK की पुष्टि करने की सुविधा कॉन्फ़िगर करना) पूरा करना होगा.
- अगर आपने कोडलैब 1 और कोडलैब 2 पूरा कर लिया है, तो आपको Google Cloud पर ABAP Platform Trial 1909 System का ऐक्सेस मिल जाएगा. साथ ही, पुष्टि करने और कनेक्ट करने के लिए ज़रूरी सेटअप भी मिल जाएगा.
- अगर आपने कोडलैब 1 और कोडलैब 2 पूरा नहीं किया है, तो आपके पास इस कोडलैब में दिए गए चरणों को पूरा करने के लिए, ज़रूरी इंफ़्रास्ट्रक्चर और कनेक्टिविटी नहीं होगी. इसलिए, इस कोडलैब को पूरा करने से पहले, कोडलैब 1 और कोडलैब 2 को पूरा करना ज़रूरी है.
4. अपने Google Cloud प्रोजेक्ट में BigQuery API V2 चालू करना
- Cloud Console में, सबसे ऊपर दाएं कोने में मौजूद Cloud Shell चालू करें पर क्लिक करें:
- BigQuery API चालू करने के लिए, Cloud Shell में ये कमांड चलाएं:
gcloud services enable bigquery.googleapis.com
टैग को सही तरीके से लागू करने पर, आपको यहां दिखाया गया मैसेज दिखेगा
अब आपके Google Cloud प्रोजेक्ट में BigQuery API चालू हो गया होगा.
5. BigQuery को सुरक्षित तरीके से ऐक्सेस करने के लिए सेवा खाता बनाना
BigQuery ML मॉडल से एमएल के अनुमान सुरक्षित तरीके से पाने के लिए, आपको BigQuery जॉब यूज़र और BigQuery डेटा व्यूअर की भूमिकाओं वाला एक सेवा खाता बनाना होगा. इससे आपका प्रोग्राम, प्रोजेक्ट में क्वेरी (जॉब के तौर पर) चला पाएगा और टेबल से डेटा पढ़ पाएगा. इस भूमिका से, सिर्फ़ ज़रूरी अनुमतियां मिलती हैं. जैसे, जॉब बनाने और डेटा पढ़ने की अनुमति. इससे सुरक्षा से जुड़े जोखिम कम हो जाते हैं.
सेवा खाता बनाना
ज़रूरी भूमिका वाला सेवा खाता बनाने के लिए, यह तरीका अपनाएं:
- Cloud Shell टर्मिनल में यह कमांड चलाएं:
gcloud iam service-accounts create abap-sdk-bigquery-jobuser --display-name="Service Account for BigQuery Job user"
- अब पिछले चरण में बनाए गए सेवा खाते में, ज़रूरी भूमिकाएं जोड़ें:
gcloud projects add-iam-policy-binding abap-sdk-poc --member='serviceAccount:abap-sdk-bigquery-jobuser@abap-sdk-poc.iam.gserviceaccount.com' --role='roles/bigquery.jobUser'
gcloud projects add-iam-policy-binding abap-sdk-poc --member='serviceAccount:abap-sdk-bigquery-jobuser@abap-sdk-poc.iam.gserviceaccount.com' --role='roles/bigquery.dataViewer'
ऊपर दिए गए निर्देश में, Google Cloud प्रोजेक्ट के लिए प्लेसहोल्डर के तौर पर abap-sdk-poc
का इस्तेमाल किया गया है. abap-sdk-poc
की जगह अपना प्रोजेक्ट आईडी डालें.
- भूमिका जोड़े जाने की पुष्टि करने के लिए, IAM पेज पर जाएं. आपने जो सेवा खाता बनाया है वह असाइन की गई भूमिका के साथ दिखना चाहिए.
6. BigQuery की मशीन लर्निंग का मॉडल बनाना
इस कोडलैब में, हम लंदन में किराये पर साइकल लेने से जुड़े डेटासेट को क्लस्टर करने के लिए, k-मीन्स मॉडल बनाएंगे. अपने डेटा को क्लस्टर में ग्रुप करने के लिए, k-मीन्स एल्गोरिदम लागू किया जा सकता है. सुपरवाइज़्ड मशीन लर्निंग, अनुमानित विश्लेषण के बारे में है. वहीं, अनसुपरवाइज़्ड लर्निंग, वर्णनात्मक विश्लेषण के बारे में है. इसका मतलब है कि आपको अपने डेटा को समझना होगा, ताकि डेटा के आधार पर फ़ैसले लिए जा सकें.
अपना डेटासेट बनाना
अपने एमएल मॉडल को सेव करने के लिए, BigQuery डेटासेट बनाने के लिए यह तरीका अपनाएं:
- Google Cloud Console में, BigQuery पेज पर जाएं. BigQuery पेज पर जाएं
- एक्सप्लोरर पैनल में, अपने प्रोजेक्ट के नाम पर क्लिक करें.
कार्रवाइयां देखें > डेटासेट बनाएं पर क्लिक करें.
- डेटासेट बनाएं पेज पर, यह तरीका अपनाएं:
- डेटासेट आईडी के लिए,
bqml_tutorial
डालें. - जगह का टाइप के लिए, एक से ज़्यादा इलाके चुनें. इसके बाद, ईयू (यूरोपियन यूनियन के कई देश या इलाके) चुनें. लंदन में साइकल किराए पर देने वाली कंपनी का सार्वजनिक डेटासेट, ईयू के मल्टी-रीजन में सेव किया जाता है. आपका डेटासेट, एक ही जगह पर होना चाहिए.
- डिफ़ॉल्ट सेटिंग में कोई बदलाव न करें और डेटासेट बनाएं पर क्लिक करें.
के-मीन्स मॉडल बनाना
डेटासेट सेट अप करने के बाद, अगला चरण डेटा का इस्तेमाल करके के-मीन्स मॉडल बनाना है. model_type=kmeans
विकल्प के साथ CREATE MODEL स्टेटमेंट का इस्तेमाल करके, के-मीन्स मॉडल बनाया और ट्रेन किया जा सकता है.
क्वेरी चलाने और k-means मॉडल बनाने के लिए, यह तरीका अपनाएं:
- BigQuery पेज पर जाएं. BigQuery पर जाएं
- एडिटर पैनल में, यह एसक्यूएल स्टेटमेंट चलाएं:
CREATE OR REPLACE MODEL `bqml_tutorial.london_station_clusters` OPTIONS(model_type='kmeans', num_clusters=4) AS WITH hs AS ( SELECT h.start_station_name AS station_name, IF (EXTRACT(DAYOFWEEK FROM h.start_date) = 1 OR EXTRACT(DAYOFWEEK FROM h.start_date) = 7, "weekend", "weekday") AS isweekday, h.duration, ST_DISTANCE(ST_GEOGPOINT(s.longitude, s.latitude), ST_GEOGPOINT(-0.1, 51.5))/1000 AS distance_from_city_center FROM `bigquery-public-data.london_bicycles.cycle_hire` AS h JOIN `bigquery-public-data.london_bicycles.cycle_stations` AS s ON h.start_station_id = s.id WHERE h.start_date BETWEEN CAST('2015-01-01 00:00:00' AS TIMESTAMP) AND CAST('2016-01-01 00:00:00' AS TIMESTAMP) ), stationstats AS ( SELECT station_name, isweekday, AVG(duration) AS duration, COUNT(duration) AS num_trips, MAX(distance_from_city_center) AS distance_from_city_center FROM hs GROUP BY station_name, isweekday) SELECT * EXCEPT(station_name, isweekday) FROM stationstats
- नेविगेशन पैनल में, संसाधन सेक्शन में जाकर, अपने प्रोजेक्ट के नाम को बड़ा करें. इसके बाद, bqml_tutorial पर क्लिक करें. फिर, london_station_clusters पर क्लिक करें.
- स्कीमा टैब पर क्लिक करें. मॉडल स्कीमा में, स्टेशन के उन तीन एट्रिब्यूट की सूची दी गई है जिनका इस्तेमाल BigQuery ML ने क्लस्टरिंग के लिए किया था. स्कीमा ऐसा दिखना चाहिए:
- आकलन टैब पर क्लिक करें. इस टैब में, k-मीन्स मॉडल से पहचाने गए क्लस्टर के विज़ुअलाइज़ेशन दिखते हैं. संख्यात्मक सुविधाएं में, बार ग्राफ़ हर सेंट्रॉइड के लिए, सबसे अहम संख्यात्मक सुविधाओं की ज़्यादा से ज़्यादा 10 वैल्यू दिखाते हैं. ड्रॉप-डाउन मेन्यू से, यह चुना जा सकता है कि किन सुविधाओं को विज़ुअलाइज़ करना है.
7. ABAP SDK for Google Cloud का इस्तेमाल करके, BigQuery ML से मिले अनुमानों को पाना
आपने Google Cloud पर ज़रूरी शर्तें पूरी कर ली हैं. अब आपको अपने SAP सिस्टम में दिए गए चरणों को पूरा करना होगा, ताकि ABAP SDK for Google Cloud का इस्तेमाल करके एमएल मॉडल से अनुमान पाए जा सकें.
क्लाइंट पासकोड का कॉन्फ़िगरेशन बनाना
पुष्टि करने और कनेक्टिविटी से जुड़े कॉन्फ़िगरेशन के लिए, Google Cloud के लिए ABAP SDK, /GOOG/CLIENT_KEY
और /GOOG/SERVIC_MAP.
टेबल का इस्तेमाल करता है
/GOOG/CLIENT_KEY
टेबल में कॉन्फ़िगरेशन बनाए रखने के लिए, यह तरीका अपनाएं:
- SAP GUI में, ट्रांज़ैक्शन कोड SPRO डालें.
- SAP Reference IMG पर क्लिक करें.
- ABAP SDK for Google Cloud > बुनियादी सेटिंग > क्लाइंट कुंजी कॉन्फ़िगर करें पर क्लिक करें
- यहां दिए गए फ़ील्ड के लिए, यह वैल्यू डालें. बाकी सभी फ़ील्ड को खाली छोड़ दें:
फ़ील्ड | वैल्यू |
Google Cloud की का नाम | BIGQUERY_ML |
Google Cloud सेवा खाते का नाम | abap-sdk-bigquery-jobuser@abap-sdk-poc.iam.gserviceaccount.com |
Google Cloud का स्कोप | https://www.googleapis.com/auth/cloud-platform |
प्रोजेक्ट आईडी | abap-sdk-poc |
अनुमति देने वाली क्लास | /GOOG/CL_AUTH_GOOGLE |
BigQuery ML मॉडल से अनुमान पाने के लिए, ABAP रिपोर्ट बनाना
ABAP रिपोर्ट बनाने के लिए, यह तरीका अपनाएं:
- SAP GUI में, लेन-देन कोड
SE38
पर जाएं औरZDEMO_BIGQUERY_ML_PREDICT.
नाम से एक रिपोर्ट प्रोग्राम बनाएं - खुलने वाले पॉप-अप में, यहां दी गई इमेज में दिखाई गई जानकारी डालें:
- अगले पॉप-अप में, Local Object चुनें या पैकेज का नाम डालें.
- ABAP एडिटर में, यह कोड जोड़ें:
REPORT zdemo_bigquery_ml_predict. types: begin of lty_query_result, centroid_id type i, station_name type string, isweekday type string, num_trips type i, distance_from_city type string, end of lty_query_result, ltt_query_result type standard table of lty_query_result. DATA: lv_project_id TYPE string, ls_input TYPE /goog/cl_bigquery_v2=>ty_103, ls_output TYPE lty_query_result, lt_output TYPE ltt_query_result. CONSTANTS: lc_newline TYPE c VALUE cl_abap_char_utilities=>newline. TRY. "Initialize Bigquery object, pass the client key name that you have configured in /GOOG/CLIENT_KEY table DATA(lo_bq) = NEW /goog/cl_bigquery_v2( iv_key_name = 'BIGQUERY_ML' ). "Populate relevant parameters lv_project_id = lo_bq->gv_project_id. ls_input-default_dataset-project_id = 'abap-sdk-poc'. ls_input-default_dataset-dataset_id = 'bqml_tutorial'. "This query gets predictions from ls_input-query = | WITH | && lc_newline && | hs AS ( | && lc_newline && | SELECT | && lc_newline && | h.start_station_name AS station_name, | && lc_newline && | IF | && lc_newline && | (EXTRACT(DAYOFWEEK | && lc_newline && | FROM | && lc_newline && | h.start_date) = 1 | && lc_newline && | OR EXTRACT(DAYOFWEEK | && lc_newline && | FROM | && lc_newline && | h.start_date) = 7, | && lc_newline && | "weekend", | && lc_newline && | "weekday") AS isweekday, | && lc_newline && | h.duration, | && lc_newline && | ST_DISTANCE(ST_GEOGPOINT(s.longitude, | && lc_newline && | s.latitude), | && lc_newline && | ST_GEOGPOINT(-0.1, | && lc_newline && | 51.5))/1000 AS distance_from_city_center | && lc_newline && | FROM | && lc_newline && | `bigquery-public-data.london_bicycles.cycle_hire` AS h | && lc_newline && | JOIN | && lc_newline && | `bigquery-public-data.london_bicycles.cycle_stations` AS s | && lc_newline && | ON | && lc_newline && | h.start_station_id = s.id | && lc_newline && | WHERE | && lc_newline && | h.start_date BETWEEN CAST('2015-01-01 00:00:00' AS TIMESTAMP) | && lc_newline && | AND CAST('2016-01-01 00:00:00' AS TIMESTAMP) ), | && lc_newline && | stationstats AS ( | && lc_newline && | SELECT | && lc_newline && | station_name, | && lc_newline && | isweekday, | && lc_newline && | AVG(duration) AS duration, | && lc_newline && | COUNT(duration) AS num_trips, | && lc_newline && | MAX(distance_from_city_center) AS distance_from_city_center | && lc_newline && | FROM | && lc_newline && | hs | && lc_newline && | GROUP BY | && lc_newline && | station_name, isweekday ) | && lc_newline && | SELECT | && lc_newline && | * EXCEPT(nearest_centroids_distance) | && lc_newline && | FROM | && lc_newline && | ML.PREDICT( MODEL `bqml_tutorial.london_station_clusters`, | && lc_newline && | ( | && lc_newline && | SELECT | && lc_newline && | * | && lc_newline && | FROM | && lc_newline && | stationstats | && lc_newline && | WHERE | && lc_newline && | REGEXP_CONTAINS(station_name, 'Kennington'))) |. "Call API method: bigquery.jobs.query CALL METHOD lo_bq->query_jobs EXPORTING iv_p_project_id = lv_project_id is_input = ls_input IMPORTING es_output = DATA(ls_response) ev_ret_code = DATA(lv_ret_code) ev_err_text = DATA(lv_err_text) es_err_resp = DATA(ls_err_resp). IF lo_bq->is_success( lv_ret_code ). "API Call successful, loop through the data & display the result IF ls_response-job_complete = abap_true. LOOP AT ls_response-rows ASSIGNING FIELD-SYMBOL(<ls_row>). LOOP AT <ls_row>-f ASSIGNING FIELD-SYMBOL(<ls_value>). ASSIGN <ls_value>-v->* TO FIELD-SYMBOL(<ls_field_value>). CASE sy-tabix. WHEN 1. ls_output-centroid_id = <ls_field_value>. WHEN 2. ls_output-station_name = <ls_field_value>. WHEN 3. ls_output-isweekday = <ls_field_value>. WHEN 4. ls_output-num_trips = <ls_field_value>. WHEN 5. ls_output-distance_from_city = <ls_field_value>. ENDCASE. ENDLOOP. APPEND ls_output TO lt_output. CLEAR ls_output. ENDLOOP. IF lt_output IS NOT INITIAL. cl_demo_output=>new( )->begin_section( 'ML.Predict Query Details' )->write_text( ls_input-query )->write_text( 'Dataset: bigquery-public-data.london_bicycles' )->end_section( )->begin_section( 'ML.Predict Query Results' )->write_data( lt_output )->end_section( )->display( ). ENDIF. ENDIF. ELSE. "Display error message in case the API call fails MESSAGE lv_err_text TYPE 'E'. ENDIF. "Close HTTP Connection lo_bq->close( ). CATCH /goog/cx_sdk INTO DATA(lo_exception). MESSAGE lo_exception->get_text( ) TYPE 'E'. ENDTRY.
- रिपोर्ट को सेव करें और चालू करें.
- रिपोर्ट चलाएं (F8).
सही तरीके से लागू करने पर, आपको रिपोर्ट का आउटपुट इस तरह दिखेगा:
8. बधाई हो
"ABAP SDK for Google Cloud का इस्तेमाल करके, BigQuery Machine Learning (ML) मॉडल से अनुमान पाना" कोडलैब पूरा करने के लिए, बधाई!
आपने SAP सिस्टम से ही, BigQuery Machine Learning मॉडल के अनुमानों को ऐक्सेस कर लिया है! आपने ABAP और Google Cloud Services के बीच इंटिग्रेशन का नया लेवल अनलॉक किया है. Google Cloud के लिए ABAP SDK के अन्य बेहतरीन कोडलैब के बारे में जानें:
- Google Cloud के लिए ABAP SDK के साथ Translation API का इस्तेमाल करना
- चंकिंग का इस्तेमाल करके, किसी Cloud Storage बकेट में बड़ा ऑब्जेक्ट अपलोड करना
- ABAP SDK for Google Cloud की मदद से, Secret Manager से क्रेडेंशियल/सीक्रेट वापस पाना
- ABAP से Vertex AI test-bison को कॉल करना
9. व्यवस्थित करें
अगर आपको Google Cloud के लिए ABAP SDK से जुड़े अन्य कोडलैब का इस्तेमाल नहीं करना है, तो कृपया क्लीनअप की प्रोसेस पूरी करें.
प्रोजेक्ट मिटाना
- Google Cloud प्रोजेक्ट मिटाएं:
gcloud projects delete abap-sdk-poc
एक-एक करके संसाधन मिटाना
- कंप्यूट इंस्टेंस मिटाएं:
gcloud compute instances delete abap-trial-docker
- फ़ायरवॉल के नियमों को मिटाने के लिए:
gcloud compute firewall-rules delete sapmachine
- सेवा खाता मिटाने के लिए:
gcloud iam service-accounts delete \
abap-sdk-bigquery-jobuser@abap-sdk-poc.iam.gserviceaccount.com