国产精品国产a_久久久久久久久综合_免费午夜视频_黄色大片网站_欧美一级免费_av成人在线观看

Spark技術在京東智能供應鏈預測的應用

我是創(chuàng)始人李巖:很抱歉!給自己產品做個廣告,點擊進來看看。  
Spark技術在京東智能供應鏈預測的應用
編者按:本文來自微信公眾號 “InfoQ”(ID:infoqchina) ,作者楊冬越、郭景瞻 。

背景介紹

前段時間京東公開了面向第二個十二年的戰(zhàn)略規(guī)劃,表示京東將全面走向技術化,大力發(fā)展人工智能和機器人自動化技術,將過去傳統(tǒng)方式構筑的優(yōu)勢全面升級。京東Y事業(yè)部順勢成立,該事業(yè)部將以服務泛零售為核心,著重智能供應能力的打造,核心使命是利用人工智能技術來驅動零售革新。

京東的供應鏈

目前京東在全國范圍內的運營256個大型倉庫,按功能可劃分為RDC、FDC、大件中心倉、大件衛(wèi)星倉、圖書倉和城市倉等等。RDC(Regional Distribution Center)即區(qū)域分發(fā)中心,可理解為一級倉庫,向供貨商采購的商品會優(yōu)先送往這里,一般設置在中心城市,覆蓋范圍大。FDC(Forward Distribution Center)即區(qū)域運轉中心,可理解為二級倉庫,覆蓋一些中、小型城市及邊遠地區(qū),通常會根據(jù)需求將商品從RDC調配過來。

Spark技術在京東智能供應鏈預測的應用 結合人工智能、大數(shù)據(jù)等技術,京東首先從供貨商那里合理采購定量的商品到RDC,再根據(jù)實際需求調配到FDC,然后運往離客戶最近的配送站,最后快遞員將商品帶到客戶手中。這只是京東供應鏈體系中一個普通的場景,但正因為有這樣的體系,使得京東對用戶的響應速度大大提高,用戶體驗大大提升。

京東供應鏈優(yōu)化

用戶體驗提升的同時也伴隨著大量資金的投入和成本的提高,成本必須得到控制,整個體系才能發(fā)揮出最大的價值,于是對供應鏈的優(yōu)化就顯得至關重要了。

優(yōu)化其實是一門運籌學問題,需考慮在各種決策目標之間如何平衡以達到最大收益,在這個過程中需要考慮很多問題,把這些考慮清楚,問題就容易解決了。舉幾個簡單的例子:

商品補貨:考慮在什么時間,給哪個RDC采購什么商品,采購量是多少?

商品調撥:考慮在什么時間,給哪個FDC調配什么商品,調配量是多少?

倉儲運營:在大促來臨之際,倉庫和配送站要增配多少人手、多少輛貨車?

雖然看上去這些問題都很容易回答,但仔細想想?yún)s又很難給出答案,原因就在于想要做到精確不是那么容易的事情,就拿補貨來說,補的太多會增加庫存成本,補的太少會增加缺貨成本,只有合理的補貨量才能做到成本最低。

預測技術在京東供應鏈的作用

借助機器學習、大數(shù)據(jù)等相關技術,京東在很多供應鏈優(yōu)化問題上都已經實現(xiàn)系統(tǒng)化,由系統(tǒng)自動給出優(yōu)化建議,并與生產系統(tǒng)相連接,實現(xiàn)全流程自動化。在這里有一項技術起著至關重要的低層支撐作用——預測技術。據(jù)粗略估算,1%的預測準確度的提升可以節(jié)約數(shù)倍的運營成本。

怎樣理解預測在供應鏈優(yōu)化中的作用呢?拿商品補貨舉例,一家公司為了保證庫房不缺貨,可能會頻繁的從供貨商那里補充大量商品,這樣做雖然不會缺貨,但可能會造成更多賣不出去的商品積壓在倉庫中,從而使商品的周轉率降低,庫存成本增加。反之,這家公司有可能為了追求零庫存而補很少的商品,但這就可能出現(xiàn)嚴重的缺貨問題,從而使現(xiàn)貨率降低,嚴重影響用戶體驗,缺貨成本增加。于是問題就來了,要補多少商品才合適,什么時間補貨,這就需要權衡考慮了,最終目的是要使庫存成本和缺貨成本達到一個平衡。

考慮一下極端情況,等庫存降到零時再去補貨,這時供貨商接到補貨通知后將貨物運往倉庫。但是這么做有個問題,因為運送過程需要時間,這段時間庫房就缺貨了。那怎么辦呢?就是利用預測技術。利用預測我們可以計算出未來商品在途的這段時間里銷量大概是多少,然后我們讓倉庫保證這個量,低于這個量就給供貨商下達補貨通知,于是問題得以解決。總而言之,預測技術在這里發(fā)揮了重要的作用,成為關鍵的一個環(huán)。

京東預測系統(tǒng)

預測系統(tǒng)介紹 Spark技術在京東智能供應鏈預測的應用

預測系統(tǒng)在整個供應鏈體系中處在最底層并且起到一個支撐的作用,支持上層的多個決策優(yōu)化系統(tǒng),而這些決策優(yōu)化系統(tǒng)利用精準的預測數(shù)據(jù)結合運籌學技術得出最優(yōu)的決策,并將結果提供給更上層的業(yè)務執(zhí)行系統(tǒng)或是業(yè)務方直接使用。

目前,預測系統(tǒng)主要支持三大業(yè)務:銷量預測、單量預測和GMV預測。其中銷量預測主要支持商品補貨、商品調撥;單量預測主要支持倉庫、站點的運營管理;GMV預測主要支持銷售部門計劃的定制。

銷量預測按照不同維度又可以分為RDC采購預測、FDC調撥預測、城市倉調撥預測、大建倉補貨預測、全球購銷量預測和圖書促銷預測等;單量預測又可分為庫房單量預測、配送中心單量預測和配送站單量預測等(在這里“單量”并非指用戶所下訂單的量,而是將訂單拆單后流轉到倉庫中的單量。例如一個用戶的訂單中包括3件物品,其中兩個大件品和一個小件品,在京東的供應鏈環(huán)節(jié)中可能會將其中兩個大件品組成一個單投放到大件倉中,而將那個小件單獨一個單投放到小件倉中,單量指的是拆單后的量);GMV預測支持到商品粒度。

預測系統(tǒng)架構

Spark技術在京東智能供應鏈預測的應用 整體架構從上至下依次是:數(shù)據(jù)源輸入層、基礎數(shù)據(jù)加工層、核心業(yè)務層、數(shù)據(jù)輸出層和下游系統(tǒng)。首先從外部數(shù)據(jù)源獲取我們所需的業(yè)務數(shù)據(jù),然后對基礎數(shù)據(jù)進行加工清洗,再通過時間序列、機器學習等人工智能技術對數(shù)據(jù)進行處理分析,最后計算出預測結果并通過多種途徑推送給下游系統(tǒng)使用。

數(shù)據(jù)源輸入層:京東數(shù)據(jù)倉庫中存儲著我們需要的大部分業(yè)務數(shù)據(jù),例如訂單信息、商品信息、庫存信息等等。而對于促銷計劃數(shù)據(jù)則大部分來自于采銷人員通過Web系統(tǒng)錄入的信息。除此之外還有一小部分數(shù)據(jù)通過文本形式直接上傳到HDFS中。

基礎數(shù)據(jù)加工層:在這一層主要通過Hive對基礎數(shù)據(jù)進行一些加工清洗,去掉不需要的字段,過濾不需要的維度并清洗有問題的數(shù)據(jù)。

核心業(yè)務層:這層是系統(tǒng)的的核心部分,橫向看又可分為三層:特征構建、預測算法和預測結果加工。縱向看是由多條業(yè)務線組成,彼此之間不發(fā)生任何交集。

  • 特征構建:將之前清洗過的基礎數(shù)據(jù)通過近一步的處理轉化成標準格式的特征數(shù)據(jù),提供給后續(xù)算法模型使用。
  • 核心算法:利用時間序列分析、機器學習等人工智能技術進行銷量、單量的預測,是預測系統(tǒng)中最為核心的部分。
  • 預測結果加工:預測結果可能在格式和一些特殊性要求上不能滿足下游系統(tǒng),所以還需要根據(jù)實際情況對其進行加工處理,比如增加標準差、促銷標識等額外信息。

預測結果輸出層:將最終預測結果同步回京東數(shù)據(jù)倉庫、MySql、HBase或制作成JSF接口供其他系統(tǒng)遠程調用。

下游系統(tǒng):包括下游任務流程、下游Web系統(tǒng)和其他系統(tǒng)。

預測系統(tǒng)核心介紹

預測系統(tǒng)核心層技術選型 Spark技術在京東智能供應鏈預測的應用 預測系統(tǒng)核心層技術主要分為四層:基礎層、框架層、工具層和算法層。

基礎層:

HDFS用來做數(shù)據(jù)存儲,Yarn用來做資源調度,BDP(Big Data Platform)是京東自己研發(fā)的大數(shù)據(jù)平臺,我們主要用它來做任務調度。

框架層:

以Spark RDD、Spark SQL、Hive為主, MapReduce程序占一小部分,是原先遺留下來的,目前正逐步替換成Spark RDD。 選擇Spark除了對性能的考慮外,還考慮了Spark程序開發(fā)的高效率、多語言特性以及對機器學習算法的支持。在Spark開發(fā)語言上我們選擇了Python,原因有以下三點:

  • Python有很多不錯的機器學習算法包可以使用,比起Spark的MLlib,算法的準確度更高。我們用GBDT做過對比,發(fā)現(xiàn)xgboost比MLlib里面提供的提升樹模型預測準確度高出大概5%~10%。雖然直接使用Spark自帶的機器學習框架會節(jié)省我們的開發(fā)成本,但預測準確度對于我們來說至關重要,每提升1%的準確度,就可能會帶來成本的成倍降低。
  • 我們的團隊中包括開發(fā)工程師和算法工程師,對于算法工程師而言他們更擅長使用Python進行數(shù)據(jù)分析,使用Java或Scala會有不小的學習成本。
  • 對比其他語言,我們發(fā)現(xiàn)使用Python的開發(fā)效率是最高的,并且對于一個新人,學習Python比學習其他語言更加容易。

工具層:

一方面我們會結合自身業(yè)務有針對性的開發(fā)一些算法,另一方面我們會直接使用業(yè)界比較成熟的算法和模型,這些算法都封裝在第三方Python包中。我們比較常用的包有xgboost、numpy、pandas、sklearn、scipy和hyperopt等。

  • Xgboost:它是Gradient Boosting Machine的一個C++實現(xiàn),xgboost最大的特點在于,它能夠自動利用CPU的多線程進行并行,同時在算法上加以改進提高了精度。
  • numpy:是Python的一種開源的數(shù)值計算擴展。這種工具可用來存儲和處理大型矩陣,比Python自身的嵌套列表結構要高效的多(該結構也可以用來表示矩陣)。
  • pandas:是基于NumPy 的一種工具,該工具是為了解決數(shù)據(jù)分析任務而創(chuàng)建的。Pandas 納入了大量庫和一些標準的數(shù)據(jù)模型,提供了高效地操作大型數(shù)據(jù)集所需的工具。
  • sklearn:是Python重要的機器學習庫,支持包括分類、回歸、降維和聚類四大機器學習算法。還包含了特征提取、數(shù)據(jù)處理和模型評估三大模塊。
  • scipy:是在NumPy庫的基礎上增加了眾多的數(shù)學、科學以及工程計算中常用的庫函數(shù)。例如線性代數(shù)、常微分方程數(shù)值求解、信號處理、圖像處理和稀疏矩陣等等。

算法層:

我們用到的算法模型非常多,原因是京東的商品品類齊全、業(yè)務復雜,需要根據(jù)不同的情況采用不同的算法模型。我們有一個獨立的系統(tǒng)來為算法模型與商品之間建立匹配關系,有些比較復雜的預測業(yè)務還需要使用多個模型。我們使用的算法總體上可以分為三類:時間序列、機器學習和結合業(yè)務開發(fā)的一些獨有的算法。

1. 機器學習算法主要包括GBDT、LASSO和RNN :

GBDT:是一種迭代的決策樹算法,該算法由多棵決策樹組成,所有樹的結論累加起來做最終答案。我們用它來預測高銷量,但歷史規(guī)律不明顯的商品。

RNN:這種網(wǎng)絡的內部狀態(tài)可以展示動態(tài)時序行為。不同于前饋神經網(wǎng)絡的是,RNN可以利用它內部的記憶來處理任意時序的輸入序列,這讓它可以更容易處理如時序預測、語音識別等。

LASSO:該方法是一種壓縮估計。它通過構造一個罰函數(shù)得到一個較為精煉的模型,使得它壓縮一些系數(shù),同時設定一些系數(shù)為零。因此保留了子集收縮的優(yōu)點,是一種處理具有復共線性數(shù)據(jù)的有偏估計。用來預測低銷量,歷史數(shù)據(jù)平穩(wěn)的商品效果較好。

2. 時間序列主要包括ARIMA和Holt winters :

ARIMA:全稱為自回歸積分滑動平均模型,于70年代初提出的一個著名時間序列預測方法,我們用它來主要預測類似庫房單量這種平穩(wěn)的序列。

Holt winters:又稱三次指數(shù)平滑算法,也是一個經典的時間序列算法,我們用它來預測季節(jié)性和趨勢都很明顯的商品。

3. 結合業(yè)務開發(fā)的獨有算法包括WMAStockDT、SimilarityModel和NewProduct等:

WMAStockDT:庫存決策樹模型,用來預測受庫存狀態(tài)影響較大的商品。

SimilarityModel:相似品模型,使用指定的同類品數(shù)據(jù)來預測某商品未來銷量。

NewProduct:新品模型,顧名思義就是用來預測新品的銷量。

預測系統(tǒng)核心流程

預測核心流程主要包括兩類:以機器學習算法為主的流程和以時間序列分析為主的流程。

1. 以機器學習算法為主的流程如下:

Spark技術在京東智能供應鏈預測的應用

  • 特征構建:通過數(shù)據(jù)分析、模型試驗確定主要特征,通過一系列任務生成標準格式的特征數(shù)據(jù)。
  • 模型選擇:不同的商品有不同的特性,所以首先會根據(jù)商品的銷量高低、新品舊品、假節(jié)日敏感性等因素分配不同的算法模型。
  • 特征選擇:對一批特征進行篩選過濾不需要的特征,不同類型的商品特征不同。
  • 樣本分區(qū):對訓練數(shù)據(jù)進行分組,分成多組樣本,真正訓練時針對每組樣本生成一個模型文件。一般是同類型商品被分成一組,比如按品類維度分組,這樣做是考慮并行化以及模型的準確性。
  • 模型參數(shù):選擇最優(yōu)的模型參數(shù),合適的參數(shù)將提高模型的準確度,因為需要對不同的參數(shù)組合分別進行模型訓練和預測,所以這一步是非常耗費資源。
  • 模型訓練:待特征、模型、樣本都確定好后就可以進行模型訓練,訓練往往會耗費很長時間,訓練后會生成模型文件,存儲在HDFS中。
  • 模型預測:讀取模型文件進行預測執(zhí)行。
  • 多模型擇優(yōu):為了提高預測準確度,我們可能會使用多個算法模型,當每個模型的預測結果輸出后系統(tǒng)會通過一些規(guī)則來選擇一個最優(yōu)的預測結果。
  • 預測值異常攔截:我們發(fā)現(xiàn)越是復雜且不易解釋的算法越容易出現(xiàn)極個別預測值異常偏高的情況,這種預測偏高無法結合歷史數(shù)據(jù)進行解釋,因此我們會通過一些規(guī)則將這些異常值攔截下來,并且用一個更加保守的數(shù)值代替。
  • 模型評價:計算預測準確度,我們通常用使用mapd來作為評價指標。
  • 誤差分析:通過分析預測準確度得出一個誤差在不同維度上的分布,以便給算法優(yōu)化提供參考依據(jù)。

2. 以時間序列分析為主的預測流程如下:

Spark技術在京東智能供應鏈預測的應用

  • 生成歷史時序:將歷史銷量、價格、庫存等數(shù)據(jù)按照規(guī)定格式生成時序數(shù)據(jù)。
  • 節(jié)假日因子:計算節(jié)假日與銷量之間的關系,用來平滑節(jié)假日對銷量影響。
  • 周日因子:計算周一到周日這7天與銷量的關系,用來平滑周日對銷量的影響。
  • 促銷因子:計算促銷與銷量之間的關系,用來平滑促銷對銷量的影響。
  • 因子平滑:歷史銷量是不穩(wěn)定的,會受到節(jié)假日、促銷等影響,在這種情況下進行預測有很大難度,所以需要利用之前計算的各類因子對歷史數(shù)據(jù)進行平滑處理。
  • 時序預測:在一個相對平穩(wěn)的銷量數(shù)據(jù)上通過算法進行預測。
  • 因子疊加:結合未來節(jié)假日、促銷計劃等因素對預測結果進行調整。

Spark在預測核心層的應用

我們使用Spark SQL和Spark RDD相結合的方式來編寫程序,對于一般的數(shù)據(jù)處理,我們使用Spark的方式與其他無異,但是對于模型訓練、預測這些需要調用算法接口的邏輯就需要考慮一下并行化的問題了。我們平均一個訓練任務在一天處理的數(shù)據(jù)量大約在500G左右,雖然數(shù)據(jù)規(guī)模不是特別的龐大,但是Python算法包提供的算法都是單進程執(zhí)行。我們計算過,如果使用一臺機器訓練全部品類數(shù)據(jù)需要一個星期的時間,這是無法接收的,所以我們需要借助Spark這種分布式并行計算框架來將計算分攤到多個節(jié)點上實現(xiàn)并行化處理。

我們實現(xiàn)的方法很簡單,首先需要在集群的每個節(jié)點上安裝所需的全部Python包,然后在編寫Spark程序時考慮通過某種規(guī)則將數(shù)據(jù)分區(qū),比如按品類維度,通過groupByKey操作將數(shù)據(jù)重新分區(qū),每一個分區(qū)是一個樣本集合并進行獨立的訓練,以此達到并行化。流程如下圖所示:

Spark技術在京東智能供應鏈預測的應用 偽碼如下:


repartitionBy方法即設置一個重分區(qū)的邏輯返回(K,V)結構RDD,train方法是訓練數(shù)據(jù),在train方法里面會調用Python算法包接口。saveAsPickleFile是Spark Python獨有的一個Action操作,支持將RDD保存成序列化后的sequnceFile格式的文件,在序列化過程中會以10個一批的方式進行處理,保存模型文件非常適合。

雖然原理簡單,但存在著一個難點,即以什么樣的規(guī)則進行分區(qū),key應該如何設置。為了解決這個問題我們需要考慮幾個方面,第一就是哪些數(shù)據(jù)應該被聚合到一起進行訓練,第二就是如何避免數(shù)據(jù)傾斜。

針對第一個問題我們做了如下幾點考慮:

  • 被分在一個分區(qū)的數(shù)據(jù)要有一定的相似性,這樣訓練的效果才會更好,比如按品類分區(qū)就是個典型例子。
  • 分析商品的特性,根據(jù)特性的不同選擇不同的模型,例如高銷商品和低銷商品的預測模型是不一樣的,即使是同一模型使用的特征也可能不同,比如對促銷敏感的商品就需要更多與促銷相關特征,相同模型相同特征的商品應傾向于分在一個分區(qū)中。

針對第二個問題我們采用了如下的方式解決:

  • 對于數(shù)據(jù)量過大的分區(qū)進行隨機抽樣選取。
  • 對于數(shù)據(jù)量過大的分區(qū)還可以做二次拆分,比如圖書小說這個品類數(shù)據(jù)量明顯大于其他品類,于是就可以分析小說品類下的子品類數(shù)據(jù)量分布情況,并將子品類合并成新的幾個分區(qū)。
  • 對于數(shù)據(jù)量過小這種情況則需要考慮進行幾個分區(qū)數(shù)據(jù)的合并處理。

總之對于后兩種處理方式可以單獨通過一個Spark任務定期運行,并將這種分區(qū)規(guī)則保存。

結合圖解Spark進行應用、優(yōu)化

注:《圖解Spark:核心技術與案例實戰(zhàn)》為本文作者所著。

《圖解Spark:核心技術與案例實戰(zhàn)》一書以Spark2.0版本為基礎進行編寫,系統(tǒng)介紹了Spark核心及其生態(tài)圈組件技術。其內容包括Spark生態(tài)圈、實戰(zhàn)環(huán)境搭建和編程模型等,重點介紹了作業(yè)調度、容錯執(zhí)行、監(jiān)控管理、存儲管理以及運行架構,同時還介紹了Spark生態(tài)圈相關組件,包括了Spark SQL的即席查詢、Spark Streaming的實時流處理、MLlib的機器學習、GraphX的圖處理和Alluxio的分布式內存文件系統(tǒng)等。下面介紹京東預測系統(tǒng)如何進行資源調度,并描述如何使用Spark存儲相關知識進行系統(tǒng)優(yōu)化。

結合系統(tǒng)中的應用

在圖解Spark書的第六章描述了Spark運行架構,介紹了Spark集群資源調度一般分為粗粒度調度和細粒度調度兩種模式。粗粒度包括了獨立運行模式和Mesos粗粒度運行模式,在這種情況下以整個機器作為分配單元執(zhí)行作業(yè),該模式優(yōu)點是由于資源長期持有減少了資源調度的時間開銷,缺點是該模式中無法感知資源使用的變化,易造成系統(tǒng)資源的閑置,從而造成了資源浪費。

而細粒度包括了Yarn運行模式和Mesos細粒度運行模式,該模式的優(yōu)點是系統(tǒng)資源能夠得到充分利用,缺點是該模式中每個任務都需要從管理器獲取資源,調度延遲較大、開銷較大。

由于京東Spark集群屬于基礎平臺,在公司內部共享這些資源,所以集群采用的是Yarn運行模式,在這種模式下可以根據(jù)不同系統(tǒng)所需要的資源進行靈活的管理。在YARN-Cluster模式中,當用戶向YARN集群中提交一個應用程序后,YARN集群將分兩個階段運行該應用程序:

第一個階段是把Spark的SparkContext作為Application Master在YARN集群中先啟動;第二個階段是由Application Master創(chuàng)建應用程序,然后為它向Resource Manager申請資源,并啟動Executor來運行任務集,同時監(jiān)控它的整個運行過程,直到運行完成。下圖為Yarn-Cluster運行模式執(zhí)行過程:

Spark技術在京東智能供應鏈預測的應用 結合系統(tǒng)的優(yōu)化

我們都知道大數(shù)據(jù)處理的瓶頸在IO。我們借助Spark可以把迭代過程中的數(shù)據(jù)放在內存中,相比MapReduce寫到磁盤速度提高近兩個數(shù)量級;另外對于數(shù)據(jù)處理過程盡可能避免Shuffle,如果不能避免則Shuffle前盡可能過濾數(shù)據(jù),減少Shuffle數(shù)據(jù)量;最后,就是使用高效的序列化和壓縮算法。在京東預測系統(tǒng)主要就是圍繞這些環(huán)節(jié)展開優(yōu)化,相關Spark存儲原理知識可以參見圖解Spark書第五章的詳細描述。

由于資源限制,分配給預測系統(tǒng)的Spark集群規(guī)模并不是很大,在有限的資源下運行Spark應用程序確實是一個考驗,因為在這種情況下經常會出現(xiàn)諸如程序計算時間太長、找不到Executor等錯誤。我們通過調整參數(shù)、修改設計和修改程序邏輯三個方面進行優(yōu)化:

參數(shù)調整

  • 減少num-executors,調大executor-memory,這樣的目的是希望Executor有足夠的內存可以使用。
  • 查看日志發(fā)現(xiàn)沒有足夠的空間存儲廣播變量,分析是由于Cache到內存里的數(shù)據(jù)太多耗盡了內存,于是我們將Cache的級別適當調成MEMORY_ONLY_SER和DISK_ONLY。
  • 針對某些任務關閉了推測機制,因為有些任務會出現(xiàn)暫時無法解決的數(shù)據(jù)傾斜問題,并非節(jié)點出現(xiàn)問題。
  • 調整內存分配,對于一個Shuffle很多的任務,我們就把Cache的內存分配比例調低,同時調高Shuffle的內存比例。

修改設計

參數(shù)的調整雖然容易做,但往往效果不好,這時候需要考慮從設計的角度去優(yōu)化:

  • 原先在訓練數(shù)據(jù)之前會先讀取歷史的幾個月甚至幾年的數(shù)據(jù),對這些數(shù)據(jù)進行合并、轉換等一系列復雜的處理,最終生成特征數(shù)據(jù)。由于數(shù)據(jù)量龐大,任務有時會報錯。經過調整后當天只處理當天數(shù)據(jù),并將結果保存到當日分區(qū)下,訓練時按天數(shù)需要讀取多個分區(qū)的數(shù)據(jù)做union操作即可。
  • 將“模型訓練”從每天執(zhí)行調整到每周執(zhí)行,將“模型參數(shù)選取”從每周執(zhí)行調整到每月執(zhí)行。因為這兩個任務都十分消耗資源,并且屬于不需要頻繁運行,這么做雖然準確度會略微降低,但都在可接受范圍內。
  • 通過拆分任務也可以很好的解決資源不夠用的問題。可以橫向拆分,比如原先是將100個品類數(shù)據(jù)放在一個任務中進行訓練,調整后改成每10個品類提交一次Spark作業(yè)進行訓練。這樣雖然整體執(zhí)行時間變長,但是避免了程序異常退出,保證任務可以執(zhí)行成功。除了橫向還可以縱向拆分,即將一個包含10個Stage的Spark任務拆分成兩個任務,每個任務包含5個Stage,中間數(shù)據(jù)保存到HDFS中。

修改程序邏輯

為了進一步提高程序的運行效率,通過修改程序的邏輯來提高性能,主要是在如下方面進行了改進:避免過多的Shuffle、減少Shuffle時需要傳輸?shù)臄?shù)據(jù)和處理數(shù)據(jù)傾斜問題等。

1. 避免過多的Shuffle

Spark提供了豐富的轉換操作,可以使我們完成各類復雜的數(shù)據(jù)處理工作,但是也正因為如此我們在寫Spark程序的時候可能會遇到一個陷阱,那就是為了使代碼變的簡潔過分依賴RDD的轉換操作,使本來僅需一次Shuffle的過程變?yōu)榱藞?zhí)行多次。我們就曾經犯過這樣一個錯誤,本來可以通過一次groupByKey完成的操作卻使用了兩回。

業(yè)務邏輯是這樣的:我們有三張表分別是銷量(s)、價格(p)、庫存(v),每張表有3個字段:商品id(sku_id)、品類id(category)和歷史時序數(shù)據(jù)(data),現(xiàn)在需要按sku_id將s、p、v數(shù)據(jù)合并,然后再按category再合并一次,最終的數(shù)據(jù)格式是:[category,[[sku_id, s , p, v], [sku_id, s , p, v], […],[…]]]。一開始我們先按照sku_id + category作為key進行一次groupByKey,將數(shù)據(jù)格式轉換成[sku_id, category , [s,p, v]],然后按category作為key再groupByKey一次。

后來我們修改為按照category作為key只進行一次groupByKey,因為一個sku_id只會屬于一個category,所以后續(xù)的map轉換里面只需要寫一些代碼將相同sku_id的s、p、v數(shù)據(jù)group到一起就可以了。兩次groupByKey的情況:

Spark技術在京東智能供應鏈預測的應用 修改后變?yōu)橐淮蝕roupByKey的情況:

Spark技術在京東智能供應鏈預測的應用 多表join時,如果key值相同,則可以使用union+groupByKey+flatMapValues形式進行。比如:需要將銷量、庫存、價格、促銷計劃和商品信息通過商品編碼連接到一起,一開始使用的是join轉換操作,將幾個RDD彼此join在一起。后來發(fā)現(xiàn)這樣做運行速度非常慢,于是換成union+groypByKey+flatMapValue形式,這樣做只需進行一次Shuffle,這樣修改后運行速度比以前快多了。實例代碼如下:

Spark技術在京東智能供應鏈預測的應用 如果兩個RDD需要在groupByKey后進行join操作,可以使用cogroup轉換操作代替。比如, 將歷史銷量數(shù)據(jù)按品類進行合并,然后再與模型文件進行join操作,流程如下:

Spark技術在京東智能供應鏈預測的應用 使用cogroup后,經過一次Shuffle就可完成了兩步操作,性能大幅提升。

2. 減少Shuffle時傳輸?shù)臄?shù)據(jù)量

  • 在Shuffle操作前盡量將不需要的數(shù)據(jù)過濾掉。
  • 使用comebineyeByKey可以高效率的實現(xiàn)任何復雜的聚合邏輯。

comebineyeByKey屬于聚合類操作,由于它支持map端的聚合所以比groupByKey性能好,又由于它的map端與reduce端可以設置成不一樣的邏輯,所以它支持的場景比reduceByKey多,它的定義如下:


educeByKey和groupByKey內部實際是調用了comebineyeByKey,


Spark技術在京東智能供應鏈預測的應用 我們之前有很多復雜的無法用reduceByKey來實現(xiàn)的聚合邏輯都通過groupByKey來完成的,后來全部替換為comebineyeByKey后性能提升了不少。

3.處理數(shù)據(jù)傾斜

有些時候經過一系列轉換操作之后數(shù)據(jù)變得十分傾斜,在這樣情況下后續(xù)的RDD計算效率會非常的糟糕,嚴重時程序報錯。遇到這種情況通常會使用repartition這個轉換操作對RDD進行重新分區(qū),重新分區(qū)后數(shù)據(jù)會均勻分布在不同的分區(qū)中,避免了數(shù)據(jù)傾斜。如果是減少分區(qū)使用coalesce也可以達到效果,但比起repartition不足的是分配不是那么均勻。

寫在最后

雖然京東的預測系統(tǒng)已經穩(wěn)定運行了很長一段時間,但是我們也看到系統(tǒng)本身還存在著很多待改進的地方,接下來我們會在預測準確度的提高、系統(tǒng)性能的優(yōu)化、多業(yè)務支持的便捷性上進行改進。未來,隨著大數(shù)據(jù)、人工智能技術在京東供應鏈管理中的使用越來越多,預測系統(tǒng)也將發(fā)揮出更大作用,對于京東預測系統(tǒng)的研發(fā)工作也將是充滿著挑戰(zhàn)與樂趣。

? ?



本文被轉載1次

首發(fā)媒體 加速會 | 轉發(fā)媒體

隨意打賞

spark streamingspark技術京東供應鏈金融京東智慧供應鏈京東供應鏈spark
提交建議
微信掃一掃,分享給好友吧。
主站蜘蛛池模板: 一级黄色毛片a | 2019天天干夜夜操 | 亚洲视频综合网 | 在线亚洲欧美 | 91成人久久 | 国产亚洲精品综合一区91555 | 亚洲第一综合色 | 欧美一级黄色片免费观看 | 国产四区 | 黄色网页在线看 | 欧美成人鲁丝片在线观看 | 黄片毛片一级 | 国产精品久久久久久久娇妻 | 精品乱码久久久久 | 免费久久久久 | 一区二区三区小视频 | 国产乱一区二区三区视频 | 羞羞视频免费网站入口 | 久久丝袜脚交足黄网站免费 | 丰满年轻岳中文字幕一区二区 | 羞羞的视频在线 | 国产一区二区精品91 | 韩日黄色片 | 欧美十区 | xxxxxx性| 国产一区在线观看视频 | 国产亚洲精彩视频 | 91情侣在线偷精品国产 | 色就色 综合偷拍区91网 | 免费在线观看成年人视频 | 日韩欧美精品中文字幕 | 亚洲综合视频网 | 伊人久久国产精品 | 国产亚洲精品美女久久久 | 国产精品视频专区 | av成人在线电影 | 中文字幕一区在线观看视频 | www噜噜偷拍在线视频 | 国产无遮挡成人免费视频 | 国产精品剧情一区二区三区 | 国产一区二区三区四区五区精品 |