Оптимизация цен на розничную продукцию

1. Введение

Последнее обновление: 15.09.2021

Данные, необходимые для анализа и оптимизации ценообразования, по своей природе разрознены (различные системы, различные локальные условия и т. д.), поэтому крайне важно разработать хорошо структурированную, стандартизированную и понятную таблицу CDM (Customer Decision Management). Она включает в себя ключевые атрибуты для оптимизации ценообразования, такие как транзакции, продукты, цены и клиенты. В этом документе мы шаг за шагом расскажем о методах, описанных ниже, и предоставим быстрый старт для анализа ценообразования, который вы можете расширить и настроить под свои нужды. Следующая диаграмма иллюстрирует шаги, описанные в этом документе.

dd8545e0c9156b13.png

  1. Оценка источников данных: Прежде всего, необходимо составить перечень источников данных, которые будут использоваться для создания CDM. На этом этапе также используется Dataprep для анализа и выявления проблем во входных данных. Например, отсутствующие и несовпадающие значения, несогласованные соглашения об именовании, дубликаты, проблемы с целостностью данных, выбросы и т. д.
  2. Стандартизация данных: Далее, ранее выявленные проблемы исправляются для обеспечения точности, целостности, согласованности и полноты данных. Этот процесс может включать различные преобразования в Dataprep , такие как форматирование дат, стандартизация значений, преобразование единиц измерения, фильтрация ненужных полей и значений, а также разделение, объединение или дедупликация исходных данных.
  3. Объединение в единую структуру: на следующем этапе конвейера все источники данных объединяются в единую широкую таблицу в BigQuery , содержащую все атрибуты на самом детальном уровне. Эта денормализованная структура позволяет выполнять эффективные аналитические запросы, не требующие объединений.
  4. Предоставление аналитики и машинного обучения/искусственного интеллекта: После очистки и форматирования данных для анализа аналитики могут изучать исторические данные, чтобы понять влияние предыдущих изменений цен. Кроме того, машинное обучение BigQuery можно использовать для создания прогнозных моделей, которые оценивают будущие продажи. Результаты этих моделей можно интегрировать в панели мониторинга Looker для создания сценариев «что если», в которых бизнес-пользователи могут анализировать, как могут выглядеть продажи при определенных изменениях цен.

На следующей диаграмме показаны компоненты Google Cloud, использованные для построения аналитического конвейера оптимизации ценообразования.

e5d74e43074eedf4.png

Что вы построите

Здесь мы покажем вам, как спроектировать хранилище данных для оптимизации ценообразования, автоматизировать подготовку данных с течением времени, использовать машинное обучение для прогнозирования влияния изменений в ценообразовании продукции и создавать отчеты, предоставляющие вашей команде полезную информацию для принятия решений.

Что вы узнаете

  • Как подключить Dataprep к источникам данных для анализа ценообразования, которые могут храниться в реляционных базах данных, текстовых файлах, таблицах Google Sheets и других поддерживаемых приложениях .
  • Как создать поток DataPrep для создания таблицы CDM в вашем хранилище данных BigQuery .
  • Как использовать BigQuery ML для прогнозирования будущей выручки.
  • Как создавать отчеты в Looker для анализа исторических тенденций ценообразования и продаж, а также для понимания влияния будущих изменений цен.

Что вам понадобится

2. Создайте CDM в BigQuery.

В этом разделе вы создаете общую модель данных (CDM), которая обеспечивает консолидированное представление информации, необходимой для анализа и внесения предложений по изменению цен.

  1. Откройте консоль BigQuery .
  2. Выберите проект, который вы хотите использовать для тестирования этого эталонного шаблона.
  3. Используйте существующий набор данных или создайте набор данных BigQuery . Назовите набор данных Pricing_CDM .
  4. Создайте таблицу :
create table `CDM_Pricing`
(
  Fiscal_Date DATETIME,
  Product_ID STRING,
  Client_ID INT64,
  Customer_Hierarchy STRING,
  Division STRING,
  Market STRING,
  Channel STRING,
  Customer_code INT64,
  Customer_Long_Description STRING,
  Key_Account_Manager INT64,
  Key_Account_Manager_Description STRING,
  Structure STRING,
  Invoiced_quantity_in_Pieces FLOAT64,
  Gross_Sales FLOAT64,
  Trade_Budget_Costs FLOAT64,
  Cash_Discounts_and_other_Sales_Deductions INT64,
  Net_Sales FLOAT64,
  Variable_Production_Costs_STD FLOAT64,
  Fixed_Production_Costs_STD FLOAT64,
  Other_Cost_of_Sales INT64,
  Standard_Gross_Margin FLOAT64,
  Transportation_STD FLOAT64,
  Warehouse_STD FLOAT64,
  Gross_Margin_After_Logistics FLOAT64,
  List_Price_Converged FLOAT64
);

3. Оцените источники данных.

В этом руководстве вы будете использовать примеры источников данных, хранящихся в Google Sheets и BigQuery .

  • Таблица Google Sheets содержит одну строку для каждой транзакции. В ней указаны такие данные, как количество проданных товаров, общая сумма валовых продаж и соответствующие затраты.
  • Таблица Google Sheets с ценами на товары содержит информацию о ценах на каждый товар для конкретного клиента за каждый месяц.
  • Таблица BigQuery company_descriptions, содержащая информацию об отдельных клиентах.

Таблицу company_descriptions в BigQuery можно создать с помощью следующего оператора:

create table `Company_Descriptions`
(
 Customer_ID INT64,
 Customer_Long_Description STRING
);
insert into `Company_Descriptions` values (15458, 'ENELTEN');
insert into `Company_Descriptions` values (16080, 'NEW DEVICES CORP.');
insert into `Company_Descriptions` values (19913, 'ENELTENGAS');
insert into `Company_Descriptions` values (30108, 'CARTOON NT');
insert into `Company_Descriptions` values (32492, 'Thomas Ed Automobiles');

4. Создайте поток.

На этом шаге вы импортируете пример потока Dataprep , который используете для преобразования и объединения примеров наборов данных, перечисленных в предыдущем разделе. Поток представляет собой конвейер или объект, объединяющий наборы данных и рецепты, которые используются для их преобразования и объединения.

  1. Загрузите пакет шаблона оптимизации ценообразования (Pricing Optimization Pattern) с GitHup, но не распаковывайте его. Этот файл содержит шаблон проектирования оптимизации ценообразования, используемый для преобразования тестовых данных.
  2. В Dataprep щелкните значок «Потоки» на левой панели навигации. Затем в представлении «Потоки» выберите «Импорт» в контекстном меню. После импорта потока вы можете выбрать его для просмотра и редактирования.

dd5213e4cf1e313f.png

  1. В левой части схемы необходимо соединить таблицы Google Sheets «Цены на продукцию» и каждую из трех таблиц Google Sheets «Транзакции» в виде наборов данных. Для этого щелкните правой кнопкой мыши по объектам набора данных Google Sheets и выберите «Заменить ». Затем щелкните ссылку «Импорт наборов данных ». Щелкните значок карандаша «Изменить путь», как показано на следующей схеме.

7e4af3e82955343f.png

Замените текущее значение ссылкой на таблицу Google Sheets, содержащую информацию о транзакциях и ценах на товары .

Если в Google Sheets несколько вкладок, вы можете выбрать нужную вкладку в меню. Нажмите «Редактировать» и выберите вкладки, которые хотите использовать в качестве источника данных, затем нажмите «Сохранить» и выберите «Импорт и добавить в поток» . Вернувшись в модальное окно, нажмите «Заменить» . В этом потоке каждая таблица представлена ​​как отдельный набор данных, чтобы продемонстрировать объединение разрозненных источников в последующем рецепте.

799bce35e0a60e87.png

  1. Определите выходные таблицы BigQuery:

На этом шаге вы укажете местоположение выходной таблицы BigQuery CDM_Pricing, которая будет загружаться каждый раз при запуске задания Dataoprep.

В окне «Просмотр потока» щелкните значок «Выходные данные сопоставления схемы», на панели «Подробности» перейдите на вкладку «Назначения». Там вы можете отредактировать как выходные данные ручного назначения, используемые для тестирования, так и выходные данные запланированного назначения, используемые, когда вы хотите автоматизировать весь поток. Для этого следуйте этим инструкциям:

  1. Отредактируйте раздел «Ручные назначения». На панели сведений в разделе «Ручные назначения» нажмите кнопку «Редактировать». На странице «Настройки публикации» в разделе «Действия публикации», если действие публикации уже существует, отредактируйте его; в противном случае нажмите кнопку «Добавить действие». Затем перейдите к наборам данных BigQuery, выберите набор данных Pricing_CDM , созданный на предыдущем шаге, и выберите таблицу CDM_Pricing . Убедитесь, что установлен флажок «Добавлять в эту таблицу при каждом запуске» , а затем нажмите « Добавить» . Нажмите «Сохранить настройки» .
  2. Отредактируйте раздел «Запланированные пункты назначения».

В панели сведений, в разделе «Запланированные пункты назначения», нажмите «Редактировать» .

Настройки наследуются из настроек, заданных вручную, и вам не нужно ничего менять. Нажмите «Сохранить настройки».

5. Стандартизация данных

Предложенный поток объединяет, форматирует и очищает данные транзакций, а затем объединяет результат с описаниями компаний и агрегированными данными о ценах для формирования отчетов. Здесь вы познакомитесь с компонентами потока, которые показаны на изображении ниже.

a033de41c68acc8b.png

6. Изучите рецепт обработки транзакционных данных.

Сначала вы изучите, что происходит внутри «Рецепта транзакционных данных», который используется для подготовки данных о транзакциях. Щелкните объект «Транзакционные данные» в окне «Просмотр потока», на панели «Подробности» нажмите кнопку «Редактировать рецепт».

Страница «Преобразователь» открывается, и в панели «Подробности» отображается «Рецепт». Рецепт содержит все этапы преобразования, применяемые к данным. Вы можете перемещаться по рецепту, щелкая между этапами, чтобы увидеть состояние данных в конкретной точке рецепта.

Вы также можете щелкнуть меню «Дополнительно» для каждого шага рецепта и выбрать «Перейти к выбранному» или «Редактировать», чтобы узнать, как происходит преобразование.

  1. Сводные транзакции: Первый шаг в алгоритме обработки транзакционных данных – это сохранение сводных транзакций на разных листах, отражающих каждый месяц.
  2. Стандартизация описаний клиентов: Следующий шаг в этом алгоритме — стандартизация описаний клиентов. Это означает, что имена клиентов могут быть похожими с небольшими изменениями, и мы хотим нормализовать их как единое имя. В алгоритме показаны два возможных подхода. Во-первых, он использует алгоритм стандартизации , который можно настроить с различными параметрами стандартизации, такими как «Похожие строки», где значения с общими символами группируются вместе, или «Произношение», где значения, которые звучат похоже, группируются вместе. В качестве альтернативы вы можете найти описание компании в таблице BigQuery, указанной выше , используя идентификатор компании.

Вы можете продолжить изучение рецепта, чтобы узнать о различных других методах, применяемых для очистки и форматирования данных: удаление строк, форматирование на основе шаблонов, обогащение данных с помощью поиска, обработка пропущенных значений или замена ненужных символов.

7. Изучите рецепт анализа данных о ценах на продукцию.

Далее вы можете изучить, что происходит в «Рецепте данных о ценах на продукцию», который объединяет подготовленные данные о транзакциях с агрегированными данными о ценах.

Чтобы закрыть страницу преобразователя и вернуться к представлению потока, нажмите на кнопку «Шаблон проектирования оптимизации ценообразования» в верхней части страницы. Там выберите объект «Данные о ценах на продукт» и отредактируйте рецепт.

  1. Преобразование столбцов с ежемесячными ценами в единый столбец: щелкните по шаблону между шагами 2 и 3, чтобы увидеть, как выглядят данные до преобразования. Вы заметите, что данные содержат значение транзакции в отдельном столбце для каждого месяца: Янв Фев Мар. Этот формат не удобен для применения агрегирования (например, суммы, средней транзакции) в SQL. Данные необходимо преобразовать в единый столбец, чтобы каждый столбец стал строкой в ​​таблице BigQuery. В шаблоне используется функция преобразования в единый столбец для каждого месяца, что упрощает дальнейшее применение групповых вычислений.
  2. Расчет средней стоимости транзакции по клиенту, продукту и дате : Нам нужно рассчитать среднюю стоимость транзакции для каждого клиента, продукта и данных. Мы можем использовать функцию «Агрегировать» и создать новую таблицу (опция «Группировать как новую таблицу»). В этом случае данные агрегируются на уровне группы, и мы теряем детали каждой отдельной транзакции. Или мы можем решить сохранить как детали, так и агрегированные значения в одном наборе данных (опция «Группировать как новый столбец(ы)»), что очень удобно для применения коэффициента (например, процентный вклад категории продукта в общую выручку). Вы можете попробовать это, отредактировав шаг 7 рецепта и выбрав опцию «Группировать как новую таблицу» или «Группировать как новый столбец(ы)», чтобы увидеть различия.
  3. Объединение данных о ценах: Наконец, для объединения нескольких наборов данных в один больший набор данных добавляются столбцы к исходному набору данных. На этом этапе данные о ценах объединяются с результатами выполнения алгоритма обработки транзакционных данных на основе значений «Данные о ценах.Код продукта» = «Данные о транзакциях.Артикул» и «Данные о ценах.Дата цены» = «Данные о транзакциях.Финансовая дата».

Чтобы узнать больше о преобразованиях, которые можно применять с помощью Dataprep, см. шпаргалку по обработке данных Trifacta.

8. Изучите рецепт сопоставления схем.

Последний алгоритм, сопоставление схем, гарантирует, что результирующая таблица CDM будет соответствовать схеме существующей выходной таблицы BigQuery. Здесь используется функция Rapid Target для переформатирования структуры данных в соответствии со схемой таблицы BigQuery с помощью нечеткого сопоставления, позволяющего сравнить обе схемы и применить автоматические изменения.

9. Объединить в единую структуру

Теперь, когда источники и получатели настроены, а этапы потоков изучены, вы можете запустить поток для преобразования и загрузки таблицы CDM в BigQuery.

  1. Выполнение сопоставления схем: В представлении потока выберите объект «Сопоставление схем» и нажмите кнопку «Выполнить» на панели «Подробности». Выберите среду выполнения «Trifacta Photon» и снимите флажок «Игнорировать ошибки рецепта». Затем нажмите кнопку «Выполнить». Если указанная таблица BigQuery существует, Dataprep добавит новые строки, в противном случае он создаст новую таблицу.
  2. Просмотр статуса задания: Dataprep автоматически открывает страницу «Запуск задания», чтобы вы могли отслеживать его выполнение. Загрузка таблицы BigQuery займет несколько минут. После завершения задания выходные данные CDM по ценообразованию будут загружены в BigQuery в чистом, структурированном и нормализованном формате, готовом для анализа.

10. Предоставление аналитических услуг и услуг машинного обучения/искусственного интеллекта.

Предварительные условия для аналитики

Для проведения аналитики и построения прогностической модели с интересными результатами мы создали более крупный и релевантный набор данных, позволяющий выявить конкретные закономерности. Перед продолжением этого руководства вам необходимо загрузить эти данные в свой набор данных BigQuery.

Нажмите кнопку «+ Создать таблицу» и задайте следующие параметры:

  • Создайте таблицу из загруженного файла и выберите файл CDM_Pricing_Large_Table.csv.
  • Автоматическое определение схемы, проверка схемы и входных параметров.
  • Расширенные параметры, Предпочтительный режим записи, Перезапись таблицы

ff9ec8b9f580b139.png

  • Нажмите «Создать таблицу».

После создания таблицы и загрузки данных в консоли Google для BigQuery вы увидите подробную информацию о новой таблице, как показано ниже. Имея данные о ценах в BigQuery, мы можем легко задавать более подробные вопросы для более глубокого анализа ваших данных о ценах.

93e4c05972af1999.png

11. Проанализируйте влияние изменений цен.

В качестве примера того, что вы можете захотеть проанализировать, можно привести изменение поведения при оформлении заказа после того, как вы ранее изменили цену товара.

  1. Сначала создайте временную таблицу, в которой будет одна строка, отображающая каждое изменение цены товара, с информацией о ценообразовании данного товара, например, сколько товаров было заказано по каждой цене и общая сумма чистой выручки, связанной с этой ценой.
create temp table price_changes as (
select
       product_id,
       list_price_converged,
       total_ordered_pieces,
       total_net_sales,
       first_price_date,
       lag(list_price_converged) over(partition by product_id order by first_price_date asc) as previous_list,
       lag(total_ordered_pieces) over(partition by product_id order by first_price_date asc) as previous_total_ordered_pieces,
       lag(total_net_sales) over(partition by product_id order by first_price_date asc) as previous_total_net_sales,
       lag(first_price_date) over(partition by product_id order by first_price_date asc) as previous_first_price_date
       from (
           select
               product_id,list_price_converged,sum(invoiced_quantity_in_pieces) as total_ordered_pieces, sum(net_sales) as total_net_sales, min(fiscal_date) as first_price_date
           from `{{my_project}}.{{my_dataset}}.CDM_Pricing` AS cdm_pricing
           group by 1,2
           order by 1, 2 asc
       )
);
select * from price_changes where previous_list is not null order by product_id, first_price_date desc

b320ba40f0692826.png

  1. Далее, используя временную таблицу, вы можете рассчитать среднее изменение цены по всем товарным позициям:
select avg((previous_list-list_price_converged)/nullif(previous_list,0))*100 as average_price_change from price_changes;
  1. Наконец, вы можете проанализировать, что происходит после изменения цены, изучив взаимосвязь между каждым изменением цены и общим количеством заказанных товаров:
select
(total_ordered_pieces-previous_total_ordered_pieces)/nullif(previous_total_ordered_pieces,0) 

как

price_changes_percent_ordered_change,
(list_price_converged-previous_list)/nullif(previous_list,0)  

как

price_changes_percent_price_change
from price_changes

12. Создайте модель прогнозирования временных рядов.

Далее, используя встроенные в BigQuery возможности машинного обучения , вы можете построить модель прогнозирования временных рядов ARIMA для предсказания количества каждого товара, который будет продан.

  1. Сначала создайте модель ARIMA_PLUS.
create or replace `{{my_project}}.{{my_dataset}}.bqml_arima`
options
 (model_type = 'ARIMA_PLUS',
  time_series_timestamp_col = 'fiscal_date',
  time_series_data_col = 'total_quantity',
  time_series_id_col = 'product_id',
  auto_arima = TRUE,
  data_frequency = 'AUTO_FREQUENCY',
  decompose_time_series = TRUE
 ) as
select
 fiscal_date,
 product_id,
 sum(invoiced_quantity_in_pieces) as total_quantity
from
 `{{my_project}}.{{my_dataset}}.CDM_Pricing` 
group by 1,2;
  1. Далее, используя функцию ML.FORECAST, вы прогнозируете будущие продажи каждого продукта:
select
*
from
ML.FORECAST(model testing.bqml_arima,
            struct(30 as horizon, 0.8 as confidence_level));
  1. Имея эти прогнозы, вы можете попытаться понять, что может произойти, если вы повысите цены. Например, если вы повысите цену на каждый товар на 15%, вы можете рассчитать предполагаемую общую выручку за следующий месяц с помощью такого запроса:
select
sum(forecast_value * list_price) as total_revenue
from ml.forecast(mode testing.bqml_arima,
            struct(30 as horizon, 0.8 as confidence_level)) forecasts
left join (select product_id,
                array_agg(list_price_converged
                       order by fiscal_date desc limit 1)[offset(0)] as list_price
                from `leigha-bq-dev.retail.cdm_pricing` group by 1)  recent_prices
using (product_id);

13. Составьте отчет

Теперь, когда ваши денормализованные данные о ценах централизованы в BigQuery, и вы понимаете, как выполнять осмысленные запросы к этим данным, пришло время создать отчет, который позволит бизнес-пользователям изучать эту информацию и принимать на ее основе решения.

Если у вас уже есть экземпляр Looker, вы можете использовать LookML из этого репозитория GitHub, чтобы начать анализ данных о ценах для этого шаблона. Просто создайте новый проект Looker , добавьте LookML и замените имена подключений и таблиц в каждом из файлов представлений в соответствии с вашей конфигурацией BigQuery.

В этой модели вы найдете производную таблицу ( в этом файле представления ), которую мы показывали ранее для анализа изменений цен:

view: price_changes {
    derived_table: {
      sql: select
        product_id,
        list_price_converged,
        total_ordered_pieces,
        total_net_sales,
        first_price_date,
        lag(list_price_converged) over(partition by product_id order by first_price_date asc) as previous_list,
        lag(total_ordered_pieces) over(partition by product_id order by first_price_date asc) as previous_total_ordered_pieces,
        lag(total_net_sales) over(partition by product_id order by first_price_date asc) as previous_total_net_sales,
        lag(first_price_date) over(partition by product_id order by first_price_date asc) as previous_first_price_date
        from (
      select
         product_id,list_price_converged,sum(invoiced_quantity_in_pieces) as total_ordered_pieces, sum(net_sales) as total_net_sales, min(fiscal_date) as first_price_date
      from ${cdm_pricing.SQL_TABLE_NAME}  AS cdm_pricing
      group by 1,2
      order by 1, 2 asc
      )
       ;;
    }
...
}

Помимо модели BigQuery ML ARIMA, которую мы показывали ранее для прогнозирования будущих продаж ( в этом файле представления ),

view: arima_model {
  derived_table: {
    persist_for: "24 hours"
    sql_create:
      create or replace model ${sql_table_name}
            options
              (model_type = 'arima_plus',
               time_series_timestamp_col = 'fiscal_date',
               time_series_data_col = 'total_quantity',
               time_series_id_col = 'product_id',
               auto_arima = true,
               data_frequency = 'auto_frequency',
               decompose_time_series = true
              ) as
            select
              fiscal_date,
              product_id,
              sum(invoiced_quantity_in_pieces) as total_quantity
            from
              ${cdm_pricing.sql_table_name}
            group by 1,2 ;;
          }
   }
...
}

В LookML также содержится пример панели мониторинга . Вы можете получить доступ к демонстрационной версии панели мониторинга здесь. Первая часть панели мониторинга предоставляет пользователям общую информацию об изменениях в продажах, затратах, ценах и марже. Как бизнес-пользователь, вы можете создать оповещение , чтобы узнать, если продажи упали ниже X%, поскольку это может означать, что вам следует снизить цены.

b531e169b192c111.png

Следующий раздел, представленный ниже, позволяет пользователям изучать тенденции изменения цен. Здесь вы можете детально просмотреть конкретные товары, чтобы узнать точную розничную цену и то, до каких цен она была изменена, что может быть полезно для определения конкретных товаров, по которым следует провести более подробное исследование.

6a98666697aa7a1.gif

Наконец, в конце отчета вы найдете результаты нашей модели BigQueryML. Используя фильтры в верхней части панели управления Looker, вы можете легко ввести параметры для моделирования различных сценариев, аналогичных описанным выше. Например, мы можем посмотреть, что произойдет, если объем заказов снизится до 75% от прогнозируемого значения, а цены на все товары будут повышены на 25%, как показано ниже.

d3a9d37c89c39b99.gif

Это достигается за счет параметров LookML, которые затем напрямую используются в расчетах показателей, представленных здесь. С помощью такого типа отчетов вы можете определить оптимальную цену для всех продуктов или детально проанализировать конкретные продукты, чтобы понять, где следует повысить или снизить цены и как это повлияет на валовую и чистую выручку.

14. Адаптируйтесь к вашей системе ценообразования.

Хотя в этом руководстве рассматриваются примеры преобразования источников данных, вы столкнетесь с очень похожими проблемами при работе с ценовыми активами, хранящимися на различных ваших платформах. Ценовые активы имеют различные форматы экспорта (часто xls, sheets, csv, txt, реляционные базы данных, бизнес-приложения) для сводных и подробных результатов, каждый из которых может быть подключен к Dataprep. Мы рекомендуем начать с описания ваших требований к преобразованию, аналогично примерам, приведенным выше. После того, как ваши спецификации будут уточнены и вы определите типы необходимых преобразований, вы можете разработать их с помощью Dataprep.

  1. Создайте копию потока Dataprep (нажмите кнопку "Подробнее" справа от потока и выберите опцию "Дублировать"), которую вы будете настраивать, или просто создайте новый поток Dataprep с нуля.
  2. Подключитесь к собственному набору данных о ценах. Dataprep поддерживает такие форматы файлов, как Excel, CSV, Google Sheets, JSON. Вы также можете подключаться к другим системам с помощью коннекторов Dataprep.
  3. Распределите ваши данные по различным категориям преобразования, которые вы определили. Для каждой категории создайте один рецепт. Воспользуйтесь принципами работы, представленными в этом шаблоне проектирования, чтобы преобразовать данные и написать свои собственные рецепты. Если у вас возникнут трудности, не волнуйтесь, обратитесь за помощью в чате в левом нижнем углу экрана Dataprep.
  4. Подключите свой рецепт к экземпляру BigQuery. Вам не нужно беспокоиться о создании таблиц вручную в BigQuery, Dataprep сделает это автоматически. Мы рекомендуем при добавлении выходных данных в поток выбирать «Ручное назначение» и удалять таблицу при каждом запуске. Тестируйте каждый рецепт отдельно, пока не получите ожидаемые результаты. После завершения тестирования преобразуйте выходные данные в «Добавление» в таблицу при каждом запуске, чтобы избежать удаления предыдущих данных.
  5. При желании вы можете настроить запуск процесса по расписанию. Это полезно, если ваш процесс должен выполняться непрерывно. Вы можете определить расписание для загрузки ответа каждый день или каждый час в зависимости от требуемой актуальности данных. Если вы решите запускать процесс по расписанию, вам потребуется добавить в процесс для каждого рецепта параметр «Выход по расписанию».

Модифицировать модель машинного обучения BigQuery

В этом руководстве представлен пример модели ARIMA. Однако при разработке модели можно контролировать дополнительные параметры, чтобы она наилучшим образом соответствовала вашим данным. Более подробную информацию можно найти в примере в нашей документации здесь. Кроме того, вы можете использовать функции BigQuery ML.ARIMA_EVALUATE , ML.ARIMA_COEFFICIENTS и ML.EXPLAIN_FORECAST для получения более подробной информации о вашей модели и принятия решений по оптимизации.

Редактировать отчеты Looker

После импорта LookML в свой проект , как описано выше , вы можете напрямую вносить изменения, добавляя дополнительные поля, изменяя вычисления или параметры, введенные пользователем, а также настраивать визуализацию на панелях мониторинга в соответствии с потребностями вашего бизнеса. Подробную информацию о разработке в LookML можно найти здесь , а о визуализации данных в Looker — здесь.

15. Поздравляем!

Теперь вы знаете ключевые шаги, необходимые для оптимизации ценообразования ваших розничных товаров!

Что дальше?

Изучите другие примеры использования интеллектуальных аналитических инструментов.

Дополнительная информация