淘天集團 算法工程師-搜索推薦 一面涼經(jīng)
時間:2025.5.12
部門:淘天集團-搜推智能產(chǎn)品事業(yè)部-自營&近場算法
時長:35min,電話面
全程圍繞項目進行提問以及相關八股的拷打
- 項目為什么會選擇ESMM框架,是否有分析過ESMM和MMoE的區(qū)別,包括最終對結果的影響或架構上的區(qū)別
- ESMM對解決樣本偏差這方面的優(yōu)勢,模型結構上的體現(xiàn)
- 多目標建模理論具體細節(jié),是否是label方面實現(xiàn)CTR和CVR二分類
- 如何體現(xiàn)的eCPM最大化
- 在正常的廣告系統(tǒng)里面有兩種方式去做eCPM的最大化,一種在推薦側,他的label可能就是我最終的eCPM序,表示在精排產(chǎn)生后,有一個bid和eCPM,這樣面向eCPM去做預估理論上不是point-wise而是pair-wise或list-wise的排序,直接在模型里面去做優(yōu)化。另一種是在eCPM公式里面將pCTR、pCVR做的更準,你這邊是傾向于第二種是嗎?
- 精排這一部分在訓練的時候負采樣/正負樣本怎么取的,最終的label是廣告商品已經(jīng)曝光的,曝光里的CTCVR?
- 是否有考慮對廣告商品的出價
- 對廣告第一部分粗排和召回是否有了解,召回模塊目前比較主流的方法有哪些,召回模塊比較有挑戰(zhàn)的方法,算法模型中遇到的最困難的點
- 召回部分,對于長尾商品難以召回的解決方案
- 介紹一下DIN模型,是否有嘗試分別用DIN和LightGBM兩個模型做排序對比結果差異性
- 詳細DIN里的注意力機制,包括特征維度,Attention公式以及其時間和空間復雜度
- 描述一下Transformer的網(wǎng)絡結構,是否有嘗試將Transformer里encoder某一部分(比如Attention)去掉做消融實驗
- Transformer里Multi-head Attention的時間和空間復雜度
- 介紹一下LightGBM模型,介紹GBDT模型,做GBDT模型調優(yōu)的時候樹的深度等方面怎么設置,在設置樹的深度方面需要考慮的維度是什么,這個超參根據(jù)什么來調整
- 分類任務存在正負樣本不均衡問題如何解決
- 精排部分除了DIN模型還了解哪些
- 是否有了解強化學習有關內(nèi)容
- 項目如何評估
反問:
- 部門業(yè)務:大部分是做搜索推薦廣告,面試官這邊做的是廣告相關,業(yè)務主要包含預算的分配,偏優(yōu)化方向的一部分是做推薦廣告的召回、粗排和精排,另一部分做繼續(xù)強化相關包含出價和一些機制的設計
- 往廣告算法相關發(fā)展的基本路線:廣告基本的召回、粗排和精排,廣告本身屬性出價和拍賣機制。CTR、CVR預測相關主流模型以及所解決的問題和難點
- 學習建議:文章和實戰(zhàn)