4.24滴滴大模型算法一面面經(jīng)
1. 自我介紹
2. 過一下你覺得最好的項目/實習(xí)。說了一個教程類開源項目,其中包括部署、LoRA微調(diào)等內(nèi)容。又說了了另一個在學(xué)校做的項目,問的很細,包括我們使用Function Call做檢索的流程、用langchain如何實現(xiàn)的,內(nèi)部原理是什么。
3. 下一個項目BERT相關(guān)的,問了問Transformer的原理結(jié)構(gòu),他的優(yōu)點是什么,我講的是他是不限制距離計算,有效遏制了經(jīng)典RNN模型的長序列遺忘問題。問了問BERT的原理,幸好看過原論文,簡單說了下。
4. 下一個項目是做的Qwen SFT,訓(xùn)練數(shù)據(jù)如何生成的,多少數(shù)據(jù),訓(xùn)練的參數(shù),訓(xùn)了多久。
5. 問了強化學(xué)習(xí)deepseek,我答了GRPO和PPO,問了DPO我沒看過。
6. medium題
2. 過一下你覺得最好的項目/實習(xí)。說了一個教程類開源項目,其中包括部署、LoRA微調(diào)等內(nèi)容。又說了了另一個在學(xué)校做的項目,問的很細,包括我們使用Function Call做檢索的流程、用langchain如何實現(xiàn)的,內(nèi)部原理是什么。
3. 下一個項目BERT相關(guān)的,問了問Transformer的原理結(jié)構(gòu),他的優(yōu)點是什么,我講的是他是不限制距離計算,有效遏制了經(jīng)典RNN模型的長序列遺忘問題。問了問BERT的原理,幸好看過原論文,簡單說了下。
4. 下一個項目是做的Qwen SFT,訓(xùn)練數(shù)據(jù)如何生成的,多少數(shù)據(jù),訓(xùn)練的參數(shù),訓(xùn)了多久。
5. 問了強化學(xué)習(xí)deepseek,我答了GRPO和PPO,問了DPO我沒看過。
6. medium題
全部評論
開源項目經(jīng)驗加分
佬,開源項目可以分享一下嗎
方便問問佬bg嗎
求問是哪個部門啊
佬,可以問一下是哪個部門嗎,我們的問題好相似
相關(guān)推薦
點贊 評論 收藏
分享