欧美1区2区3区激情无套,两个女人互添下身视频在线观看,久久av无码精品人妻系列,久久精品噜噜噜成人,末发育娇小性色xxxx

淘天集團 算法工程師-搜索推薦 一面涼經(jīng)

時間:2025.5.12

部門:淘天集團-搜推智能產(chǎn)品事業(yè)部-自營&近場算法

時長:35min,電話面

全程圍繞項目進行提問以及相關八股的拷打

  1. 項目為什么會選擇ESMM框架,是否有分析過ESMM和MMoE的區(qū)別,包括最終對結果的影響或架構上的區(qū)別
  2. ESMM對解決樣本偏差這方面的優(yōu)勢,模型結構上的體現(xiàn)
  3. 多目標建模理論具體細節(jié),是否是label方面實現(xiàn)CTR和CVR二分類
  4. 如何體現(xiàn)的eCPM最大化
  5. 在正常的廣告系統(tǒng)里面有兩種方式去做eCPM的最大化,一種在推薦側,他的label可能就是我最終的eCPM序,表示在精排產(chǎn)生后,有一個bid和eCPM,這樣面向eCPM去做預估理論上不是point-wise而是pair-wise或list-wise的排序,直接在模型里面去做優(yōu)化。另一種是在eCPM公式里面將pCTR、pCVR做的更準,你這邊是傾向于第二種是嗎?
  6. 精排這一部分在訓練的時候負采樣/正負樣本怎么取的,最終的label是廣告商品已經(jīng)曝光的,曝光里的CTCVR?
  7. 是否有考慮對廣告商品的出價
  8. 對廣告第一部分粗排和召回是否有了解,召回模塊目前比較主流的方法有哪些,召回模塊比較有挑戰(zhàn)的方法,算法模型中遇到的最困難的點
  9. 召回部分,對于長尾商品難以召回的解決方案
  10. 介紹一下DIN模型,是否有嘗試分別用DIN和LightGBM兩個模型做排序對比結果差異性
  11. 詳細DIN里的注意力機制,包括特征維度,Attention公式以及其時間和空間復雜度
  12. 描述一下Transformer的網(wǎng)絡結構,是否有嘗試將Transformer里encoder某一部分(比如Attention)去掉做消融實驗
  13. Transformer里Multi-head Attention的時間和空間復雜度
  14. 介紹一下LightGBM模型,介紹GBDT模型,做GBDT模型調優(yōu)的時候樹的深度等方面怎么設置,在設置樹的深度方面需要考慮的維度是什么,這個超參根據(jù)什么來調整
  15. 分類任務存在正負樣本不均衡問題如何解決
  16. 精排部分除了DIN模型還了解哪些
  17. 是否有了解強化學習有關內(nèi)容
  18. 項目如何評估

反問:

  1. 部門業(yè)務:大部分是做搜索推薦廣告,面試官這邊做的是廣告相關,業(yè)務主要包含預算的分配,偏優(yōu)化方向的一部分是做推薦廣告的召回、粗排和精排,另一部分做繼續(xù)強化相關包含出價和一些機制的設計
  2. 往廣告算法相關發(fā)展的基本路線:廣告基本的召回、粗排和精排,廣告本身屬性出價和拍賣機制。CTR、CVR預測相關主流模型以及所解決的問題和難點
  3. 學習建議:文章和實戰(zhàn)
#淘天##面經(jīng)#
全部評論
這問的 有點拷打了
點贊 回復 分享
發(fā)布于 05-15 13:50 浙江
點贊 回復 分享
發(fā)布于 05-14 15:27 四川

相關推薦

評論
2
2
分享

創(chuàng)作者周榜

更多
牛客網(wǎng)
??推髽I(yè)服務