機(jī)器學(xué)習(xí)應(yīng)用實(shí)例分析
品排序問題。從業(yè)務(wù)角度,一般是在一個召回的商品集合里,通過對商品排序,追求GMV或者點(diǎn)擊量最大化。進(jìn)一步講,就是基于一個目標(biāo),如何讓流量的利用效率最高。很自然的,如果我們可以準(zhǔn)確預(yù)估每個商品的GMV轉(zhuǎn)化率或者點(diǎn)擊率,就可以最大化利用流量,從而收益最大。
蘑菇街是一個年輕女性垂直電商平臺,主要從事服飾鞋包類目,2015年時全年GMV超過了百億,后與美麗說合并后公司更名為美麗聯(lián)合集團(tuán)。2014年時入職蘑菇街,那時候蘑菇街剛剛開始嘗試機(jī)器學(xué)習(xí),這3年中經(jīng)歷了很多變化,打造爆款、追求效率、提升品質(zhì)等等。雖然在過程中經(jīng)常和業(yè)務(wù)方互相challenge,但我們的理念——技術(shù)服務(wù)于業(yè)務(wù)始終沒有變化過。模型本身的迭代需配合業(yè)務(wù)目標(biāo)才能發(fā)揮出最大的價值,因此選擇模型迭代的路線,必須全盤考慮業(yè)務(wù)的情況。
在開始前,先和大家討論一些方法論。在點(diǎn)擊率預(yù)估領(lǐng)域,常用的是有監(jiān)督的模型,其中樣本、特征、模型是三個繞不開的問題。首先,如何構(gòu)建樣本,涉及模型的目標(biāo)函數(shù)是什么,即要優(yōu)化什么。原則上,我們希望樣本構(gòu)建越接近真實(shí)場景越好。比如點(diǎn)擊率模型常用用戶行為日志作為樣本,曝光過沒有點(diǎn)擊的日志是負(fù)樣本,有點(diǎn)擊的是正樣本,去構(gòu)建樣本集,變成一個二分類。在另一個相似的領(lǐng)域——Learning to rank,樣本構(gòu)建方法可以分為三類:pointwise、pairwise、listwise。簡單來講,前面提到的構(gòu)建樣本方式屬于pointwise范疇,即每一條樣本構(gòu)建時不考慮與其他樣本直接的關(guān)系。但真實(shí)的場景中,往往需要考慮其他樣本的影響,比如去百度搜一個關(guān)鍵字,會出來一系列的結(jié)果,用戶的決策會受整個排序結(jié)果影響。故pairwise做了一點(diǎn)改進(jìn),它的樣本都是由pair對組成,比如電商搜索下,商品a和商品b可以構(gòu)建一個樣本,如果a比b好,樣本pair{a,b}是正樣本,否則是負(fù)樣本。
當(dāng)然,這會帶來新問題,比如a》b,b》c,c》a,這個時候怎么辦?有興趣的同學(xué)可以參考From RankNet to LambdaRank to LambdaMART: An Overview。而listwise就更接近真實(shí),但復(fù)雜性也隨之增加,工業(yè)界用的比較少,這里不做過多描述。理論上,樣本構(gòu)建方式listwise》pairwise》pointwise,但實(shí)際應(yīng)用中,不一定是這個順序。比如,你在pointwise的樣本集下,模型的fit情況不是很好,比如auc不高,這個時候上pairwise,意義不大,更應(yīng)該從特征和模型入手。一開始就選擇pairwise或者listwise,并不是一種好的實(shí)踐方式。
其次是模型和特征,不同模型對應(yīng)不同的特征構(gòu)建方式,比如廣告的點(diǎn)擊率預(yù)估模型,通常就有兩種組合方式:采用大規(guī)模離散特征+logistic regression模型或中小規(guī)模特征+復(fù)雜模型。比如gbdt這樣的樹模型,就沒有必要再對很多特征做離散化和交叉組合,特征規(guī)模可以小下來。很難說這兩種方式哪種好,但這里有個效率問題。在工業(yè)界,機(jī)器學(xué)習(xí)工程師大部分的時間都是花在特征挖掘上,因此很多時候叫數(shù)據(jù)挖掘工程師更加合適,但這本身是一件困難且低效難以復(fù)用的工作。希望能更完美干凈地解決這些問題,是我們從不停地從學(xué)術(shù)界借鑒更強(qiáng)大的模型,雖然大部分不達(dá)預(yù)期,卻不曾放棄的原因。
言歸正傳,下文大致是按時間先后順序組織而成。
導(dǎo)購到電商
蘑菇街原來是做淘寶導(dǎo)購起家,在2013年轉(zhuǎn)型成電商平臺,剛開始的商品排序是運(yùn)營和技術(shù)同學(xué)拍了一個公式,雖然很簡單,但也能解決大部分問題。作為一個初創(chuàng)的電商平臺,商家數(shù)量和質(zhì)量都難以得到保障。當(dāng)時公式有個買手優(yōu)選的政策,即蘑菇街上主要售賣的商品都是經(jīng)過公司的買手團(tuán)隊(duì)人工審核,一定程度上保證了平臺的口碑,同時豎立平臺商品的標(biāo)桿。但這個方式投入很重,為了讓這種模式得到最大收益,必須讓商家主動學(xué)習(xí)這批買手優(yōu)選商品的運(yùn)營模型。另一方面,從技術(shù)角度講,系統(tǒng)迭代太快,導(dǎo)致數(shù)據(jù)鏈路不太可靠,且沒有分布式機(jī)器學(xué)習(xí)集群。我們做了簡化版的排序模型,將轉(zhuǎn)化、點(diǎn)擊、GMV表現(xiàn)好的一批商品作為正樣本,再選擇有一定曝光且表現(xiàn)不好的商品作為負(fù)樣本,做了一個爆款模型。該模型比公式排序的GMV要提升超過10%。
從結(jié)果上,這個模型還是很成功的,仔細(xì)分析下收益的來源:對比公式,主要是它更多相關(guān)的影響因子(即它的特征),而且在它的優(yōu)化目標(biāo)下學(xué)到了一個最優(yōu)的權(quán)重分配方案。而人工設(shè)計(jì)的公式很難包含太多因素,且是拍腦袋決定權(quán)重分配。由于這個模型的目標(biāo)很簡單,學(xué)習(xí)商品成為爆款的可能性,因此做完常見CVR、CTR等統(tǒng)計(jì)特征,模型就達(dá)到了瓶頸。
做大做強(qiáng),效率優(yōu)先
到了2015年,平臺的DAU、GMV、商家商品數(shù)都在快速膨脹,原來的模型又暴露出新的業(yè)務(wù)問題。一是該模型對目標(biāo)做了很大簡化,只考慮了top商品,對表現(xiàn)中等的商品區(qū)分度很小;二是模型本身沒有繼續(xù)優(yōu)化的空間,auc超過了95%。這個時候,我們的數(shù)據(jù)鏈路和Spark集群已經(jīng)準(zhǔn)備好了。借鑒業(yè)界的經(jīng)驗(yàn),開始嘗試轉(zhuǎn)化率模型。
我們的目標(biāo)是追求GMV最大化。因此最直接的是對GMV轉(zhuǎn)化率建模,曝光后有成交的為正樣本,否則為負(fù)樣本,再對正樣本按price重采樣,可以一定程度上模擬GMV轉(zhuǎn)化率。另一種方案,用戶的購買是有個決策路徑的,gmv = ctr * cvr * price,取log后可以變成log(gmv) = log(ctr) + log(cvr) + log(price),一般還會對這幾個目標(biāo)加個權(quán)重因子。這樣,問題可以拆解成點(diǎn)擊率預(yù)估、轉(zhuǎn)化率預(yù)估,最后再相加。從我們的實(shí)踐經(jīng)驗(yàn)看,第二種方案的效果優(yōu)于第一種,主要原因在于第二種方案將問題拆解成更小的問題后,降低了模型學(xué)習(xí)的難度,用戶購不購買商品的影響因素太多,第一種方案對模型的要求要大于后面的。但第二種方案存在幾個目標(biāo)之間需要融合,帶來了新的問題。可以嘗試對多個模型的結(jié)果,以GMV轉(zhuǎn)化率再做一次學(xué)習(xí)得到融合的方案,也可以根據(jù)業(yè)務(wù)需求,人工分配參數(shù)。
模型上我們嘗試過lr和lr+xgboost。lr的轉(zhuǎn)化率模型對比爆款模型轉(zhuǎn)化率有8%以上的提升,lr+xgboost對比lr gmv轉(zhuǎn)化率有5%以上的提升。但我們建議如果沒有嘗試過lr,還是先用lr去積累經(jīng)驗(yàn)。在lr模型中,我們把主要的精力放在了特征工程上。在電商領(lǐng)域,特征從類型上可以分為三大種類:商品、店鋪、用戶。又可以按其特點(diǎn)分為:
統(tǒng)計(jì)類:比如點(diǎn)擊率、轉(zhuǎn)化率、商品曝光、點(diǎn)擊、成交等,再對這些特征進(jìn)行時間維度上的切割刻畫,可進(jìn)一步增強(qiáng)特征的描述力度。
離散類:id類特征。比如商品id、店鋪id、用戶id、query類id、類目id等,很多公司會直接做onehot編碼,得到一個高維度的離散化稀疏特征。但這樣會對模型訓(xùn)練、線上預(yù)測造成一定的工程壓力。另一種選擇是對其做編碼,用一種embedding的方式去做。
其他類:比如文本類特征,商品詳情頁標(biāo)題、屬性詞等。
常見的特征處理手段有l(wèi)og、平滑、離散化、交叉。根據(jù)我們的實(shí)踐經(jīng)驗(yàn),平滑非常重要,對一些統(tǒng)計(jì)類的特征,比如點(diǎn)擊率,天然是存在position bias。一個商品在曝光未充分之前,很難說是因?yàn)樗旧砭忘c(diǎn)擊率低還是因?yàn)闆]有排到前面得到足夠的曝光導(dǎo)致。因此,通過對CTR平滑的方式來增強(qiáng)該指標(biāo)的置信度,具體選擇貝葉斯平滑、拉普拉斯平滑或其他平滑手段都是可以的。這個平滑參數(shù),大了模型退化成爆款模型,小了統(tǒng)計(jì)指標(biāo)置信度不高,需根據(jù)當(dāng)前數(shù)據(jù)分布去折中考慮。
我們借鑒了Facebook在gbdt+lr的經(jīng)驗(yàn),用xgboost預(yù)訓(xùn)練模型,將輸出的葉子節(jié)點(diǎn)當(dāng)做特征輸入到lr模型中訓(xùn)練。實(shí)踐中,需特別注意是選擇合理的歸一化方案避免訓(xùn)練和預(yù)測階段數(shù)據(jù)分布的變化帶來模型的效果的不穩(wěn)定。該方案容易出現(xiàn)過擬合的現(xiàn)象,建議樹的個數(shù)多一點(diǎn),深度少一些。當(dāng)然xgboost有很多針對過擬合的調(diào)參方案,這里不再復(fù)述。
在轉(zhuǎn)化率模型取得一定成果后,開始個性化的嘗試。個性化方案分為兩種:
標(biāo)簽類個性化:購買力、風(fēng)格、地域等。
非常好我支持^.^
(0) 0%
不好我反對
(0) 0%
下載地址
機(jī)器學(xué)習(xí)應(yīng)用實(shí)例分析下載
相關(guān)電子資料下載
- 如何創(chuàng)建FPGA控制的機(jī)器人手臂 49
- 機(jī)器學(xué)習(xí)需要掌握的九種工具盤點(diǎn) 16
- Hugging Face被限制訪問 404
- 《人工智能在指揮和控制系統(tǒng)中的決策支持》 133
- 生成式人工智能和機(jī)器學(xué)習(xí)正在這9個學(xué)科中打造未來 216
- 智慧礦山AI算法帶你解決皮帶運(yùn)行難題! 51
- 人工智能領(lǐng)域存在第一性原理嗎? 53
- 英特爾啟動首個AI PC加速計(jì)劃,目標(biāo)2025年前為超100萬臺PC提供AI特性 223
- PLC就是邏輯控制嗎?PLC的網(wǎng)絡(luò)通信怎么樣? 51
- 機(jī)器學(xué)習(xí)常用的5種采樣方法盤點(diǎn) 45