欧美1区2区3区激情无套,两个女人互添下身视频在线观看,久久av无码精品人妻系列,久久精品噜噜噜成人,末发育娇小性色xxxx

算法打工人阿旺 level
獲贊
32
粉絲
32
關(guān)注
0
看過 TA
195
中山大學(xué)
2026
算法工程師
IP屬地:山東
阿里高級算法工程師,多模態(tài)/大模型/搜廣推方向輔導(dǎo)
私信
關(guān)注
今天老師給大家整理了部分搜索推薦算法工程師(實習(xí))面經(jīng)。供各位同學(xué)參考。?一面1.自我介紹2.先問如果面試通過了,什么時候可以來實習(xí),實習(xí)可以線下不3.問有實習(xí)過嗎?4.簡單了解下簡歷上的兩個項目除了這個課程設(shè)計,對于推薦還了解哪些5.介紹下推薦系統(tǒng)的流程6.召回和排序比較大的差異點7.為啥排序會比召回的結(jié)果要準(zhǔn)呢?8.項目中 DIN 模型里面的 attention 是怎么做的?score 是怎么得到的?知道原文里是怎么做的嗎?9.現(xiàn)在主要研究是 NLP 嗎?10.簡歷上的在投論文是一作嗎?結(jié)果咋樣?11.未來是希望做 NLP 還是 做推薦12.畢業(yè)論文開始寫了嗎?13.實驗有做推薦的嗎?14.大數(shù)據(jù)相關(guān)的技術(shù)了解如何?15.用戶意圖理解、用戶興趣、畫像建模,應(yīng)用到推薦上16.編程題:本科是計算系的,平時刷過 leetcode 嗎?回答說:沒有刻意刷過,不知道該如何回答。17.判斷二叉樹是否是鏡像二叉樹,就是判斷是否對稱。leetcode 原題回答說這個題可以用遞歸和迭代來做,寫了遞歸實現(xiàn)。?二面1.自我介紹2.先問了在投的論文,接受了嗎?介紹下這篇 paper3.主觀性很強(qiáng)的場景,如何做量化等等4.結(jié)果 f1 提升的 1% 怎么保證有效性,如何保證置信呢?5.固定隨機(jī)種子后,多次實驗結(jié)果相同嗎?6.介紹下第二個項目,跟推薦系統(tǒng)相關(guān)的7.結(jié)合這個項目,說說自己對推薦系統(tǒng)的了解8.多目標(biāo)混排算法有哪些9.召回主流的做法10.召回的目的是什么,推薦系統(tǒng)一定需要召回嗎?11.介紹下 embedding 召回12.推薦系統(tǒng)冷啟動問題,怎么解決13.怎么解決排序結(jié)果都是之前電影相似電影的結(jié)果14.編程題:最長無重復(fù)子數(shù)組,leetcode 原題,用滑動窗口來做。??***************************************
0 點贊 評論 收藏
分享
今天老師給大家分享推薦算法3輪面經(jīng),供各位同學(xué)參考。1??第一輪1、先自我介紹,我的習(xí)慣是經(jīng)歷簡單介紹一下,然后自然轉(zhuǎn)向準(zhǔn)備最充分的一個項目開始詳細(xì)講,面試官感興趣的話最好,不感興趣的話會直接打斷的。主要介紹了項目的背景,難點和解決方案,面試官關(guān)心的點主要集中在問題抽象和損失函數(shù),講清楚為什么這么做,項目大概聊了半小時左右2、機(jī)器學(xué)習(xí)基礎(chǔ):推導(dǎo) lr,寫出loss和梯度(比起推導(dǎo)svm來說簡直就是送分題,要是寫不出來的話估計會直接掛,基礎(chǔ)還是要好好準(zhǔn)備)3、算法 鏈表對折 1 2 3 4 5 變成 1 5 2 4 3拆解一下題目,(靈活)找到鏈表的中點 ??皖}霸: 鏈表中倒數(shù)第k個節(jié)點 是找中點的復(fù)雜版,都是雙指針解法翻轉(zhuǎn)后半段鏈表 牛客題霸: 翻轉(zhuǎn)鏈表合并兩個鏈表 ??皖}霸: 合并兩個有序鏈表 是復(fù)雜版2??第二輪1、先介紹項目,主要聊了項目背景和收益,收益具體怎么衡量,項目如何上線生效2、算法題 m*n的二維數(shù)組,只能往右或者往下,找最短路徑,n空間 ??皖}霸: 矩陣的最小路徑和3、有了解過設(shè)計模式嗎?(答了常見的工廠模式和單例模式,對應(yīng)的應(yīng)用場景,簡單扯了一下裝飾器模式,也是看xgb源碼看到的,其實不會用)4、系統(tǒng)設(shè)計需要注意什么,如何設(shè)計一個系統(tǒng),系統(tǒng)性能如何評估,需要考慮哪些指標(biāo)(考察點應(yīng)該是線上的系統(tǒng)了,指標(biāo)比如內(nèi)存使用率,qps,99 39 49時間之類的)5、之前幫阿里云錄制過一些深度學(xué)習(xí)的入門課程,簡單聊了一下相關(guān)的內(nèi)容3??第三輪1、先介紹項目,主要聊了項目背景和收益,收益具體怎么衡量,項目如何上線生效2、介紹xgbgbdt和xgb的區(qū)別(居然沒有問lgb)怎么選最優(yōu)分裂節(jié)點,怎么加速,預(yù)排序有什么作用,怎么分箱,等寬還是等深怎么處理缺失值的,預(yù)測時候缺失值怎么辦3、為什么離職,希望一份什么樣的工作4、有沒有什么問題想要了解的(問了業(yè)務(wù)場景 工作內(nèi)容)??對于想求職算法崗的同學(xué),如果想?yún)⒓痈哔|(zhì)量項目輔導(dǎo),提升面試能力,歡迎后臺聯(lián)系。#簡歷中的項目經(jīng)歷要怎么寫# #互聯(lián)網(wǎng)大廠招聘# #大模型面經(jīng)# #算法崗面試#
投遞阿里云等公司10個崗位 簡歷中的項目經(jīng)歷要怎么寫
0 點贊 評論 收藏
分享
翻遍各種大模型的實現(xiàn),雖然結(jié)構(gòu)上可能保留了 dropout 的實現(xiàn),但是采樣概率都設(shè)置為 0 了。唯一一個比較新的,還用 Dropout 的模型是 Meta 訓(xùn)練的 Galactica 模型。那為什么現(xiàn)在不用了呢?核心還是要弄清楚 Dropout 的使用場景。Dropout 之前在深度學(xué)習(xí)當(dāng)中是一個特別好用的方法,可以防止過擬合,提高泛化。所以說,當(dāng)模型較大,數(shù)據(jù)較少的時候,使用 Dropout 是比較合適的。現(xiàn)在大模型處在什么狀態(tài)呢??預(yù)訓(xùn)練在預(yù)訓(xùn)練階段,目前可能還是處于欠擬合的狀態(tài)。之所以說可能,是基于目前公開的一些論文的出的結(jié)論。但是現(xiàn)在閉源的公司在采用大量數(shù)據(jù)合成的情況下,已經(jīng)訓(xùn)練足夠充分或者接近充分也說不定。以 llama 一系列論文為例,訓(xùn)練 llama 1 的時候,龍貓 Scaling law 里面提到 GPT3 是一個訓(xùn)練很不充分的模型。然后給出的數(shù)據(jù)配比的建議是,10B 的模型要采用 200B 的 token 來訓(xùn)練。但是 llama 1 采用了 7B 的模型,訓(xùn)練量 1T 的 token 發(fā)現(xiàn)性能依然有提升。而且預(yù)訓(xùn)練所有的語料一般只過一個 epoch,某些特定的領(lǐng)域可能過 2個 epoch,可以認(rèn)為樣本的重復(fù)率很低。所以,在數(shù)據(jù)足夠多,多樣性足夠而且沒有太多重復(fù)的情況下,大模型在預(yù)訓(xùn)練階段仍然沒有過擬合的風(fēng)險。也就完全不需要采用 dropout。?Dropout 就完全不需要了么?如果上面的條件不能滿足,Dropout 還是有用武之地的。比如前面提到的 Galactica 模型。這個模型和其他大模型不太一樣的地方是訓(xùn)練了 4.25 個 epoch,因為他們認(rèn)為高質(zhì)量的數(shù)據(jù)更重要一些,但是又沒有那么多,所以就 repeat 數(shù)據(jù)了。在論文《To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis》 中,詳細(xì)列舉了數(shù)據(jù) Repeat 對訓(xùn)練 LLM 的影響,并且證明了 Dropout 可以緩解數(shù)據(jù)重復(fù)帶來的性能損失。在文章《Can LLMs learn from a single example?》中,也提到了在 SFT 的時候,少量的重復(fù)數(shù)據(jù)就會降低模型的性能。這也符合常理,SFT 的數(shù)據(jù)分布和預(yù)訓(xùn)練的通常是不太一樣的,重復(fù)的數(shù)據(jù)會讓模型擬合新的分布,從而忘掉舊的分布。文中同樣也提到 Dropout 可以緩解數(shù)據(jù)重復(fù)帶來的影響。所以 Dropout 在數(shù)據(jù)量較少,多樣性不高,需要 repeat 的場景下,依然是一個減少過擬合的很方便的手段。比如現(xiàn)在已經(jīng)有一些在 LoRA 微調(diào)的時候采用 Dropout 的研究了。
0 點贊 評論 收藏
分享
今天老師整理了大模型入門的幾個學(xué)習(xí)步驟、目標(biāo)和需要掌握的基礎(chǔ)知識,供初學(xué)者快速掌握基本路徑。1??前置知識: Python 基礎(chǔ)、 Linux 基礎(chǔ)??學(xué)習(xí)內(nèi)容1.熟練掌握 Python 語言,熟悉常用的Python 庫和工具,如 NumPy 、 Pandas 、  Scikit - learn 、 PyTorch 等。2.具備 NLP 相關(guān)的基礎(chǔ)知識,包括文本預(yù)處理、分詞、詞性標(biāo)注等。3.對大模型有一定了解,包括Transformer 模型的結(jié)構(gòu)和原理、基于注意力機(jī)制的自然語言處理技術(shù)等。2??Step1:NLP相關(guān)基礎(chǔ)知識??學(xué)習(xí)內(nèi)容1.了解文本預(yù)處理、分詞、詞性標(biāo)注、命名實體識別、詞向量表示等基礎(chǔ)知識。2.掌握機(jī)器學(xué)習(xí)中的數(shù)據(jù)預(yù)處理、特征提取、分類、回歸等基礎(chǔ)算法,并了解其在 NLP 領(lǐng)域的應(yīng)用。3.了解大規(guī)模 NLP 任務(wù)中的常用技術(shù)和方法,如深度學(xué)習(xí)中的 Transformer 模型、 BERT 、 GPT 等。3??Step2:GPT API 調(diào)用及 Prompt 設(shè)計??學(xué)習(xí)內(nèi)容了解 GPT API 的調(diào)用方式和基本操作,熟悉 Prompt 設(shè)計技巧和要點,能夠結(jié)合自己的任務(wù)調(diào)用 API 實現(xiàn)對應(yīng)的任務(wù)代碼。4??Step3:模型微調(diào)( Fine - tuning )??學(xué)習(xí)內(nèi)容了解常見的微調(diào)模型的基本流程和原理,熟悉數(shù)據(jù)集的構(gòu)造、訓(xùn)練、評估等過程,能夠獨立構(gòu)建 QA 對,在服務(wù)器上對模型進(jìn)行微調(diào)。5??Step4: RAG (外掛數(shù)據(jù)庫)??學(xué)習(xí)內(nèi)容RAG 作為目前最火的一個 LLM 落地方向,可以結(jié)合私有數(shù)據(jù)(表格、 word 、 txt 、 pdf 、數(shù)據(jù)庫皆可)實現(xiàn)本地問答,且訓(xùn)練成本較低,可以快速實現(xiàn)效果。??有需要提升面試能力和輔導(dǎo)項目的同學(xué)可以后臺聯(lián)系我~
0 點贊 評論 收藏
分享
今天老師給大家分享推薦算法3輪面經(jīng),供各位同學(xué)參考。1??第一輪1、先自我介紹,我的習(xí)慣是經(jīng)歷簡單介紹一下,然后自然轉(zhuǎn)向準(zhǔn)備最充分的一個項目開始詳細(xì)講,面試官感興趣的話最好,不感興趣的話會直接打斷的。主要介紹了項目的背景,難點和解決方案,面試官關(guān)心的點主要集中在問題抽象和損失函數(shù),講清楚為什么這么做,項目大概聊了半小時左右2、機(jī)器學(xué)習(xí)基礎(chǔ):推導(dǎo) lr,寫出loss和梯度(比起推導(dǎo)svm來說簡直就是送分題,要是寫不出來的話估計會直接掛,基礎(chǔ)還是要好好準(zhǔn)備)3、算法 鏈表對折 1 2 3 4 5 變成 1 5 2 4 3拆解一下題目,(靈活)找到鏈表的中點 ??皖}霸: 鏈表中倒數(shù)第k個節(jié)點 是找中點的復(fù)雜版,都是雙指針解法翻轉(zhuǎn)后半段鏈表 ??皖}霸: 翻轉(zhuǎn)鏈表合并兩個鏈表 牛客題霸: 合并兩個有序鏈表 是復(fù)雜版2??第二輪1、先介紹項目,主要聊了項目背景和收益,收益具體怎么衡量,項目如何上線生效2、算法題 m*n的二維數(shù)組,只能往右或者往下,找最短路徑,n空間 ??皖}霸: 矩陣的最小路徑和3、有了解過設(shè)計模式嗎?(答了常見的工廠模式和單例模式,對應(yīng)的應(yīng)用場景,簡單扯了一下裝飾器模式,也是看xgb源碼看到的,其實不會用)4、系統(tǒng)設(shè)計需要注意什么,如何設(shè)計一個系統(tǒng),系統(tǒng)性能如何評估,需要考慮哪些指標(biāo)(考察點應(yīng)該是線上的系統(tǒng)了,指標(biāo)比如內(nèi)存使用率,qps,99 39 49時間之類的)5、之前幫阿里云錄制過一些深度學(xué)習(xí)的入門課程,簡單聊了一下相關(guān)的內(nèi)容3??第三輪1、先介紹項目,主要聊了項目背景和收益,收益具體怎么衡量,項目如何上線生效2、介紹xgbgbdt和xgb的區(qū)別(居然沒有問lgb)怎么選最優(yōu)分裂節(jié)點,怎么加速,預(yù)排序有什么作用,怎么分箱,等寬還是等深怎么處理缺失值的,預(yù)測時候缺失值怎么辦3、為什么離職,希望一份什么樣的工作4、有沒有什么問題想要了解的(問了業(yè)務(wù)場景 工作內(nèi)容)??對于想求職算法崗的同學(xué),如果想?yún)⒓痈哔|(zhì)量項目輔導(dǎo),提升面試能力,歡迎后臺聯(lián)系。#簡歷中的項目經(jīng)歷要怎么寫# #大模型# #大模型面經(jīng)# #互聯(lián)網(wǎng)大廠招聘#
0 點贊 評論 收藏
分享
翻遍各種大模型的實現(xiàn),雖然結(jié)構(gòu)上可能保留了 dropout 的實現(xiàn),但是采樣概率都設(shè)置為 0 了。唯一一個比較新的,還用 Dropout 的模型是 Meta 訓(xùn)練的 Galactica 模型。那為什么現(xiàn)在不用了呢?核心還是要弄清楚 Dropout 的使用場景。Dropout 之前在深度學(xué)習(xí)當(dāng)中是一個特別好用的方法,可以防止過擬合,提高泛化。所以說,當(dāng)模型較大,數(shù)據(jù)較少的時候,使用 Dropout 是比較合適的。現(xiàn)在大模型處在什么狀態(tài)呢??預(yù)訓(xùn)練在預(yù)訓(xùn)練階段,目前可能還是處于欠擬合的狀態(tài)。之所以說可能,是基于目前公開的一些論文的出的結(jié)論。但是現(xiàn)在閉源的公司在采用大量數(shù)據(jù)合成的情況下,已經(jīng)訓(xùn)練足夠充分或者接近充分也說不定。以 llama 一系列論文為例,訓(xùn)練 llama 1 的時候,龍貓 Scaling law 里面提到 GPT3 是一個訓(xùn)練很不充分的模型。然后給出的數(shù)據(jù)配比的建議是,10B 的模型要采用 200B 的 token 來訓(xùn)練。但是 llama 1 采用了 7B 的模型,訓(xùn)練量 1T 的 token 發(fā)現(xiàn)性能依然有提升。而且預(yù)訓(xùn)練所有的語料一般只過一個 epoch,某些特定的領(lǐng)域可能過 2個 epoch,可以認(rèn)為樣本的重復(fù)率很低。所以,在數(shù)據(jù)足夠多,多樣性足夠而且沒有太多重復(fù)的情況下,大模型在預(yù)訓(xùn)練階段仍然沒有過擬合的風(fēng)險。也就完全不需要采用 dropout。?Dropout 就完全不需要了么?如果上面的條件不能滿足,Dropout 還是有用武之地的。比如前面提到的 Galactica 模型。這個模型和其他大模型不太一樣的地方是訓(xùn)練了 4.25 個 epoch,因為他們認(rèn)為高質(zhì)量的數(shù)據(jù)更重要一些,但是又沒有那么多,所以就 repeat 數(shù)據(jù)了。在論文《To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis》 中,詳細(xì)列舉了數(shù)據(jù) Repeat 對訓(xùn)練 LLM 的影響,并且證明了 Dropout 可以緩解數(shù)據(jù)重復(fù)帶來的性能損失。在文章《Can LLMs learn from a single example?》中,也提到了在 SFT 的時候,少量的重復(fù)數(shù)據(jù)就會降低模型的性能。這也符合常理,SFT 的數(shù)據(jù)分布和預(yù)訓(xùn)練的通常是不太一樣的,重復(fù)的數(shù)據(jù)會讓模型擬合新的分布,從而忘掉舊的分布。文中同樣也提到 Dropout 可以緩解數(shù)據(jù)重復(fù)帶來的影響。所以 Dropout 在數(shù)據(jù)量較少,多樣性不高,需要 repeat 的場景下,依然是一個減少過擬合的很方便的手段。比如現(xiàn)在已經(jīng)有一些在 LoRA 微調(diào)的時候采用 Dropout 的研究了。#算法# #簡歷中的項目經(jīng)歷要怎么寫# #算法崗面試# #互聯(lián)網(wǎng)大廠招聘# #大模型# #大模型面經(jīng)#
0 點贊 評論 收藏
分享
結(jié)合最近輔助修改的簡歷及項目,老師總結(jié)了部分大模型微調(diào)簡歷的踩雷點。???♂?錯誤示范:在 x任務(wù)中,獲取 xxx 條數(shù)據(jù),通過規(guī)則 or 腳本清洗出 x 條數(shù)據(jù),然后微調(diào) y 大模型,在業(yè)務(wù)上提升 x 個點。???原因:大模型微調(diào)的平臺是現(xiàn)成的,基模是現(xiàn)成的,體現(xiàn)不出核心能力。?應(yīng)該怎么寫?首先介紹業(yè)務(wù)背景:業(yè)務(wù)是一個銷售對話業(yè)務(wù),機(jī)器人是銷售,代替真人,直接面對用戶。我們會給模型設(shè)定任務(wù),任務(wù)是 prompt 。步驟1??.提取訓(xùn)練數(shù)據(jù)問題:1.真人通話每通電話任務(wù)是未知的,我們訓(xùn)練數(shù)據(jù)是任務(wù)+通話的 pair 對。2.真人通話很亂,與客戶的對話是各種交叉的,導(dǎo)致 asr 后并不是一人一輪。解決方案:1.首先通過大模型 prompt 對該通電話提取任務(wù),得到任務(wù)+ pair 對。需要用到 cot + reflection +多 Ilm 一致性+ debating 的模式。2.使用大模型根據(jù)以上任務(wù)和真人對話,讓大模型編寫出通話內(nèi)容。提問,為什么要編寫而不是直接用?步驟2??.制定訓(xùn)練數(shù)據(jù)集問題:1、正常的對話內(nèi)容,前面幾句和后面幾句基本上一致的。都是問候和拜拜,但是也有一些差異。2、因為都是相似場景,雖然任務(wù)不同,但是很多場景語義很相似。解決方案:1、基于輪次的權(quán)重采樣:通過輪次設(shè)定權(quán)重進(jìn)行 weighting sample 。解決問候和拜拜的高占比問題。2、基于語義的采樣:使用 bert 對對話內(nèi)容進(jìn)行 embedding ,然后使用層次聚類通過調(diào)節(jié)閾值聚類出相似語義的類。對一個類里的樣本進(jìn)行隨機(jī)采樣,提問,為什么要對重復(fù)語義的數(shù)據(jù)進(jìn)行下采樣?3、基于客戶類型和產(chǎn)品的采樣,因為很多產(chǎn)品是熱品,導(dǎo)致對話內(nèi)容有偏,用戶類型一樣,需按照類型調(diào)整整體比例采樣。提問,為什么要這么采樣?步驟3??.制定訓(xùn)練數(shù)據(jù)集我們直接把輸出當(dāng)作 target 進(jìn)行訓(xùn)練。使用的 lora 訓(xùn)練,但是 lora alpha 設(shè)定成為4倍的時候達(dá)到了比較好的效果,經(jīng)驗值不同任務(wù)不一樣,提問,在各種情況下要怎么調(diào)?步驟4??.dpo訓(xùn)練問題:v1版本訓(xùn)練時,很多輸出內(nèi)容是對的,但是輸出的語氣不太像真人,機(jī)器人味還是很嚴(yán)重。解決方案:由于訓(xùn)練本身是有 ground truth 的,因此使用v1訓(xùn)練的模型,預(yù)測訓(xùn)練集,使用大模型對比兩者語氣不符合訓(xùn)練集的拿出來,使用訓(xùn)練集的 ground truth 和模型的預(yù)測數(shù)據(jù)作為 dpo 訓(xùn)練對,對v1版本模型重新訓(xùn)練。??這里老師只是簡要進(jìn)行概括解答,具體情況和詳細(xì)解答可以咨詢輔導(dǎo),如果想了解項目輔導(dǎo),提升面試能力,歡迎后臺聯(lián)系。#算法# #簡歷中的項目經(jīng)歷要怎么寫# #算法崗面試# #互聯(lián)網(wǎng)大廠招聘#
0 點贊 評論 收藏
分享
今天老師結(jié)合輔導(dǎo)經(jīng)驗,分享一些豐富項目經(jīng)歷的方法,供各位同學(xué)參考學(xué)習(xí)。?關(guān)于怎么找項目這個問題,其實來源可以是很多的,比如數(shù)據(jù)競賽: Kaggle 、百度 AlStudio 、阿里天池等?Github 高 Star 項目?項目輔導(dǎo):在輔導(dǎo)中老師會帶各位同學(xué)接觸實際大廠的高級別項目,能夠滿足技術(shù)棧和大廠契合,有應(yīng)用場景,有可以發(fā)布論文的創(chuàng)新點或者能解決業(yè)務(wù)問題的整體Pipeline,并且有明確的優(yōu)化思路(比如版本迭代)。也很重要的是??你能否把你的項目完整且精彩的寫在簡歷上并且講述給你的面試官聽。??過程分為三步:1??明確想做的任務(wù)和方法:任務(wù):拿 NLP 舉例,主要分為四大任務(wù):分類任務(wù)、生成任務(wù)、序列標(biāo)注、句子關(guān)系判斷方法:主流方法 or 前沿方法。還是拿 NLP 舉例,主流方法可以是 BERT ,前沿方法當(dāng)然就是大模型微調(diào)啦2??找到相關(guān)代碼+多迭代明確任務(wù)和方法之后,就可以找找 Github 先跑通一個 Version 1了。接下來比較關(guān)鍵的一步就是如何優(yōu)化你的 Version 1了。比如你可以從數(shù)據(jù)預(yù)處理、加入小 trick 、對比不同模型性能等多種角度來以此嘗試,試圖能否提升性能與效果。其實這就是面試官想看到的,因為大家可以想想互聯(lián)網(wǎng)的一個最重要的特點不就是飛速的迭代嘛,很多的算法崗業(yè)務(wù)也是如此:要不就是開辟新業(yè)務(wù),要不就是用新方法重新做一遍舊業(yè)務(wù),一旦優(yōu)化成功了,你的新模型就成功上線了。3??寫好故事+講好故事簡歷書寫(這一篇筆記先不具體展開了),但大致可以按照下面一部分的幾個角度來切入講好故事:面試前提前準(zhǔn)備好下面幾個問題,數(shù)據(jù)是什么,方法是什么(對應(yīng)八股要準(zhǔn)備好),項目的目的是什么﹣﹣讓面試官有個總體了解是怎么迭代算法與模型的,性能對比情況如何﹣﹣體現(xiàn)你的工程能力與優(yōu)化能力,遇到過什么困難,是如何解決的﹣﹣提升真實性,讓面試官直觀的感受到你是自己做的,還有什么改進(jìn)空間﹣﹣體現(xiàn)你的思考與沉淀。??如果想進(jìn)行更加詳細(xì)具體的項目輔導(dǎo),提升面試能力,歡迎后臺聯(lián)系。#算法# #簡歷中的項目經(jīng)歷要怎么寫#
0 點贊 評論 收藏
分享

創(chuàng)作者周榜

更多
關(guān)注他的用戶也關(guān)注了:
??途W(wǎng)
??推髽I(yè)服務(wù)