欧美1区2区3区激情无套,两个女人互添下身视频在线观看,久久av无码精品人妻系列,久久精品噜噜噜成人,末发育娇小性色xxxx

首頁 / 五一之后,實(shí)習(xí)真的很難找嗎?
#

五一之后,實(shí)習(xí)真的很難找嗎?

#
58144次瀏覽 396人互動(dòng)
五一之后,有人輕輕的碎掉了~
此刻你想和大家分享什么
熱門 最新
入職前要不要向HR說自己肢體殘疾
???09130932號:same,我當(dāng)時(shí)有些拿了oc被收回,也有領(lǐng)導(dǎo)去努力爭取還是沒法的。建議拿到offer后直接和HR溝通讓領(lǐng)導(dǎo)批,畢竟不可能瞞過去的。一般公司都有招殘疾人指標(biāo),而且大廠對這些要寬容一些。只能說祝好運(yùn),有實(shí)力拿大廠offer這些都是小問題,總能有地方去的
點(diǎn)贊 評論 收藏
分享
04-30 11:23
已編輯
門頭溝學(xué)院 golang
go學(xué)長暑期實(shí)習(xí)總結(jié)
官網(wǎng)投遞40幾家公司(golang能投的太少了.....),boss溝通300多,經(jīng)歷了16場筆試(大部分都是海筆),6個(gè)公司8場面試,兩個(gè)offer。在這里做個(gè)總結(jié)吧....筆試&測評:螞蟻,餓了么,靈犀,得物,作業(yè)幫,美團(tuán),眾安保險(xiǎn),騰訊云智,美的,klook,米哈游,聯(lián)想,vivo,百度,吉比特,京東(點(diǎn)名批評騰訊云智,給我約面又給我取消了,不要我可以直接感謝信,我還特地為了云智的面試改了天美的面試時(shí)間)一面:已過:科大訊飛,百度,快手掛:騰訊天美,聯(lián)想,美團(tuán)(美團(tuán)約面我go選手是沒想到的, 我以為美團(tuán)只要java選手)二面:已過:快手掛:百度hr面:快手oc:快手,科大訊飛tl:手子 4.23一面,4.25二面,4.27hr面,晚上錄用評估,第二天oc     訊飛 4.19一面 4.21oc(已拒)太感恩手子了?。?!流程巨快其余的要么是簡歷掛,要么是泡池子,也不等了去手子沉淀備戰(zhàn)秋招了整個(gè)實(shí)習(xí)下來,作為go選手的面試感受是,八股很重要,簡歷上的項(xiàng)目也很重要(很多時(shí)候會根據(jù)項(xiàng)目衍生到八股,然后還要自己能講出來項(xiàng)目實(shí)現(xiàn)意義,并不是簡單講功能實(shí)現(xiàn)就可以了),最后就是沉住氣八股算法不能落下,暑期實(shí)習(xí)也是場持久戰(zhàn),有人早早oc,也有人晚進(jìn)場撿漏,這一切都是看運(yùn)氣。后續(xù)更新面經(jīng)~#實(shí)習(xí)進(jìn)度記錄# #五一之后,實(shí)習(xí)真的很難找嗎?# #實(shí)習(xí),投遞多份簡歷沒人回復(fù)怎么辦# #golang# #牛客創(chuàng)作賞金賽# #??虯I配圖神器# #我的OC時(shí)間線# #牛客AI配圖神器# #我的OC時(shí)間線#
點(diǎn)贊 評論 收藏
分享
一下午面了三個(gè)大模型崗,全是一言難盡...
真服了,我不信有這個(gè)題,還不會常見的業(yè)務(wù)題◆ 大模型(LLMs)基礎(chǔ)面? 目前主流的開源模型體系有哪些?? prefix Decoder 和 causal Decoder 和 Encoder-Decoder 區(qū)別是什么?? 大模型LLM的 訓(xùn)練目標(biāo) 是什么?? 涌現(xiàn)能力是啥原因?? 為何現(xiàn)在的大模型大部分是Decoder only結(jié)構(gòu)?? 簡單 介紹一下 大模型【LLMs】?? 大模型【LLMs】后面跟的 175B、60B、540B等 指什么?? 大模型【LLMs】具有什么優(yōu)點(diǎn)?? 大模型【LLMs】具有什么缺點(diǎn)?◆ Layer normalization 篇? Layer Norm 的計(jì)算公式寫一下?? RMS Norm 的計(jì)算公式寫一下?? RMS Norm 相比于 Layer Norm 有什么特點(diǎn)?? Deep Norm 思路?? 寫一下 Deep Norm 代碼實(shí)現(xiàn)?? Deep Norm 有什么優(yōu)點(diǎn)?? LN 在 LLMs 中的不同位置 有什么區(qū)別么?如果有,能介紹一下區(qū)別么?? LLMs 各模型分別用了 哪種 Layer normalization?◆ LLMs 激活函數(shù)篇? 介紹一下 FFN 塊 計(jì)算公式?? 介紹一下 GeLU 計(jì)算公式?? 介紹一下 Swish 計(jì)算公式?? 介紹一下 使用 GLU 線性門控單元的 FFN 塊 計(jì)算公式?? 介紹一下 使用 GeLU 的 GLU 塊 計(jì)算公式?? 介紹一下 使用 Swish 的 GLU 塊 計(jì)算公式?◆ Attention 升級面? 傳統(tǒng) Attention 存在哪些問題?? Attention 優(yōu)化方向? Attention 變體有哪些?? Multi-head Attention 存在什么問題?? 介紹一下 Multi-Query Attention?? 對比一下 Multi-head Attention 和 Multi-Query Attention?◆ transformers 操作篇◆ LLMs 損失函數(shù)篇◆ 相似度函數(shù)篇◆ 大模型(LLMs)進(jìn)階面◆ 大模型(LLMs)微調(diào)面◆ LLMs 訓(xùn)練經(jīng)驗(yàn)帖◆ 大模型(LLMs)langchain 面◆ 多輪對話中讓AI保持長期記憶的8種優(yōu)化方式篇◆ 基于langchain RAG問答應(yīng)用實(shí)戰(zhàn)◆ 基于LLM+向量庫的文檔對話 經(jīng)驗(yàn)面.......#五一之后,實(shí)習(xí)真的很難找嗎?##牛客在線求職答疑中心##筆試##面試#
大模型海文:所有面試題可以開源給大家 后臺T一下
查看29道真題和解析
點(diǎn)贊 評論 收藏
分享
【面試必備】大模型經(jīng)典面試題+詳細(xì)答案:背八股文才是王道,不然你面試撐不過五分鐘
最近春招正在如火如荼地進(jìn)行中,看到很多人的簡歷上都包含大模型相關(guān)的工作,各家大廠和初創(chuàng)都很舍得給錢,動(dòng)輒百萬年包也變得不再稀奇。因此在大模型縱橫的這個(gè)時(shí)代,不僅大模型技術(shù)越來越卷,就連大模型相關(guān)的崗位和面試也開始越來越卷了。本文匯總了107道大模型算法崗常見的面試題(含答案),內(nèi)容如下:一、基礎(chǔ)篇1、目前主流的開源模型體系有哪些?Transformer體系:由Google提出的Transformer 模型及其變體,如BERT、GPT 等。PyTorch Lightning:一個(gè)基于PyTorch的輕量級深度學(xué)習(xí)框架,用于快速原型設(shè)計(jì)和實(shí)驗(yàn)。TensorFlow Model Garden:TensorFlow官方提供的一系列預(yù)訓(xùn)練模型和模型架構(gòu)。Hugging Face Transformers:一個(gè)流行的開源庫,提供了大量預(yù)訓(xùn)練模型和工具,用于NLP 任務(wù)。2、prefix LM 和 causal LM 區(qū)別是什么?prefix LM (前綴語言模型):在輸入序列的開頭添加一個(gè)可學(xué)習(xí)的任務(wù)相關(guān)的前綴,然后使用這個(gè)前綴和輸入序列一起生成輸出。這種方法可以引導(dǎo)模型生成適應(yīng)特定任務(wù)的輸出。causal LM (因果語言模型):也稱為自回歸語言模型,它根據(jù)之前生成的 token 預(yù)測下一個(gè)token。在生成文本時(shí),模型只能根據(jù)已經(jīng)生成的部分生成后續(xù)部分,不能訪問未來的信息。3、涌現(xiàn)能力是啥原因?涌現(xiàn)能力 (Emergent Ability) 是指模型在訓(xùn)練過程中突然表現(xiàn)出的新的、之前未曾預(yù)料到的能力。這種現(xiàn)象通常發(fā)生在大型模型中,原因是大型模型具有更高的表示能力和更多的參數(shù),可以更好地捕捉數(shù)據(jù)中的模式和關(guān)聯(lián)。隨著模型規(guī)模的增加,它們能夠自動(dòng)學(xué)習(xí)到更復(fù)雜、更抽象的概念和規(guī)律,從而展現(xiàn)出涌現(xiàn)能力。4、大模型LLM的架構(gòu)介紹?大模型LLM(Large Language Models) 通常采用基于Transformer的架構(gòu)。Transformer模型由多個(gè)編碼器或解碼器層組成,每個(gè)層包含多頭自注意力機(jī)制和前饋神經(jīng)網(wǎng)絡(luò)。這些層可以并行處理輸入序列中的所有位置,捕獲長距離依賴關(guān)系。大模型通常具有數(shù)十億甚至數(shù)千億個(gè)參數(shù),可以處理大量的文本數(shù)據(jù),并在各種NLP任務(wù)中表現(xiàn)出色。前饋神經(jīng)網(wǎng)絡(luò) (Feedforward Neural Network) 是一種最基礎(chǔ)的神經(jīng)網(wǎng)絡(luò)類型,它的信息流動(dòng)是單向的,從輸入層經(jīng)過一個(gè)或多個(gè)隱藏層,最終到達(dá)輸出層。在前饋神經(jīng)網(wǎng)絡(luò)中,神經(jīng)元之間的連接不會形成閉環(huán),這意味著信號在前向傳播過程中不會回溯。前饋神經(jīng)網(wǎng)絡(luò)的基本組成單元是神經(jīng)元,每個(gè)神經(jīng)元都會對輸入信號進(jìn)行加權(quán)求和,然后通過一個(gè)激活函數(shù)產(chǎn)生輸出。激活函數(shù)通常是非線性的,它決定了神經(jīng)元的輸出是否應(yīng)該被激活,從而允許網(wǎng)絡(luò)學(xué)習(xí)復(fù)雜和非線性的函數(shù)。前饋神經(jīng)網(wǎng)絡(luò)在模式識別、函數(shù)逼近、分類、回歸等多個(gè)領(lǐng)域都有應(yīng)用。例如,在圖像識別任務(wù)中,網(wǎng)絡(luò)的輸入層節(jié)點(diǎn)可能對應(yīng)于圖像的像素值,而輸出層節(jié)點(diǎn)可能代表不同類別的概率分布。訓(xùn)練前饋神經(jīng)網(wǎng)絡(luò)通常涉及反向傳播 (Backpropagation) 算法,這是一種有效的學(xué)習(xí)算法,通過計(jì)算輸出層的誤差,并將這些誤差信號沿網(wǎng)絡(luò)反向傳播,以調(diào)整連接權(quán)重。通過多次迭代這個(gè)過程,網(wǎng)絡(luò)可以逐漸學(xué)習(xí)如何減少輸出誤差,從而實(shí)現(xiàn)對輸入數(shù)據(jù)的正確分類或回歸。在設(shè)計(jì)和訓(xùn)練前饋神經(jīng)網(wǎng)絡(luò)時(shí),需要考慮多個(gè)因素,包括網(wǎng)絡(luò)的層數(shù)、每層的神經(jīng)元數(shù)目、激活函數(shù)的選擇、學(xué)習(xí)速率、正則化策略等,這些都對網(wǎng)絡(luò)的性能有重要影響。5、目前比較受歡迎的開源大模型有哪些?GPT系列:由OpenAl開發(fā)的生成式預(yù)訓(xùn)練模型,如 GPT-3。BERT系列:由Google開發(fā)的轉(zhuǎn)換式預(yù)訓(xùn)練模型,如BERT、RoBERTa等。T5系列:由Google開發(fā)的基于Transformer的編碼器-解碼器模型,如T5、mT5等。6、目前大模型模型結(jié)構(gòu)都有哪些?Transformer:基于自注意力機(jī)制的模型,包括編碼器、解碼器和編碼器-解碼器結(jié)構(gòu)。GPT系列:基于自注意力機(jī)制的生成式預(yù)訓(xùn)練模型,采用解碼器結(jié)構(gòu)。BERT系列:基于自注意力機(jī)制的轉(zhuǎn)換式預(yù)訓(xùn)練模型,采用編碼器結(jié)構(gòu)。T5系列:基于Transformer的編碼器-解碼器模型。7、prefix LM 和 causal LM、encoder-decoder 區(qū)別及各自有什么優(yōu)缺點(diǎn)?prefix LM:通過在輸入序列前添加可學(xué)習(xí)的任務(wù)相關(guān)前綴,引導(dǎo)模型生成適應(yīng)特定任務(wù)的輸 出。優(yōu)點(diǎn)是可以減少對預(yù)訓(xùn)練模型參數(shù)的修改,降低過擬合風(fēng)險(xiǎn);缺點(diǎn)是可能受到前綴表示長度的限制,無法充分捕捉任務(wù)相關(guān)的信息。causal LM:根據(jù)之前生成的 token預(yù)測下一個(gè) token, 可以生成連貫的文本。優(yōu)點(diǎn)是可以生成靈 活的文本,適應(yīng)各種生成任務(wù);缺點(diǎn)是無法訪問未來的信息,可能生成不一致或有誤的內(nèi)容。encoder-decoder:由編碼器和解碼器組成,編碼器將輸入序列編碼為固定長度的向量,解碼器 根據(jù)編碼器的輸出生成輸出序列。優(yōu)點(diǎn)是可以處理輸入和輸出序列不同長度的任務(wù),如機(jī)器翻譯;缺點(diǎn)是模型結(jié)構(gòu)較為復(fù)雜,訓(xùn)練和推理計(jì)算量較大。8、模型幻覺是什么?業(yè)內(nèi)解決方案是什么?模型幻覺是指模型在生成文本時(shí)產(chǎn)生的不準(zhǔn)確、無關(guān)或虛構(gòu)的信息。這通常發(fā)生在模型在缺乏足夠信息的情況下進(jìn)行推理或生成時(shí)。業(yè)內(nèi)的解決方案包括:使用更多的數(shù)據(jù)和更高質(zhì)量的訓(xùn)練數(shù)據(jù)來提高模型的泛化和準(zhǔn)確性。引入外部知識源,如知識庫或事實(shí)檢查工具,以提供額外的信息和支持。強(qiáng)化模型的推理能力和邏輯推理,使其能夠更好地處理復(fù)雜問題和避免幻覺。9、大模型的Tokenizer的實(shí)現(xiàn)方法及原理?大模型的Tokenizer通常使用字節(jié)對編碼 (Byte-Pair Encoding,BPE) 算法。BPE算法通過迭代地將最頻繁出現(xiàn)的字節(jié)對合并成新的符號,來構(gòu)建一個(gè)詞匯表。在訓(xùn)練過程中,模型會學(xué)習(xí)這些符號的嵌入表示。Tokenizer將輸入文本分割成符號序列,然后將其轉(zhuǎn)換為模型可以處理的數(shù)字表示。這種方法可以有效地處理大量文本數(shù)據(jù),并減少詞匯表的規(guī)模。10、ChatGLM3的詞表實(shí)現(xiàn)方法?ChatGLM3 使用了一種改進(jìn)的詞表實(shí)現(xiàn)方法。它首先使用字節(jié)對編碼 (BPE) 算法構(gòu)建一個(gè)基本的詞表,然后在訓(xùn)練過程中通過不斷更新詞表來引入新的詞匯。具體來說,ChatGLM3 在訓(xùn)練 過程中會根據(jù)輸入數(shù)據(jù)動(dòng)態(tài)地合并出現(xiàn)頻率較高的字節(jié)對,從而形成新的詞匯。這樣可以有效地處理大量文本數(shù)據(jù),并減少詞匯表的規(guī)模。同時(shí),ChatGLM3 還使用了一種特殊的詞表分割方法,將詞表分為多個(gè)片段,并在訓(xùn)練過程中逐步更新這些片段,以提高模型的泛化能力和適應(yīng)性。11、GPT3、LLAMA、ChatGLM 的 Layer Normalization 的區(qū)別是什么?各自的優(yōu)缺點(diǎn)是什么?GPT3:采用了Post-Layer Normalization (后標(biāo)準(zhǔn)化)的結(jié)構(gòu),即先進(jìn)行自注意力或前饋神經(jīng)網(wǎng)絡(luò)的計(jì)算,然后進(jìn)行Layer Normalization。這種結(jié)構(gòu)有助于穩(wěn)定訓(xùn)練過程,提高模型性能。LLAMA:采用了Pre-Layer Normalization (前標(biāo)準(zhǔn)化)的結(jié)構(gòu),即先進(jìn)行Layer Normalization,然后進(jìn)行自注意力或前饋神經(jīng)網(wǎng)絡(luò)的計(jì)算。這種結(jié)構(gòu)有助于提高模型的泛化能力和魯棒性。ChatGLM:采用了Post-Layer Normalization的結(jié)構(gòu),類似于GPT3。這種結(jié)構(gòu)可以提高模型的性能和穩(wěn)定性。#五一之后,實(shí)習(xí)真的很難找嗎?##面試##實(shí)習(xí)##大模型##碩士##研究生#
大模型海文:所有面試題可以開源給大家 后臺T一下
點(diǎn)贊 評論 收藏
分享
五一后實(shí)習(xí)確實(shí)難找,但是千萬不可以慌哦
五一過后確實(shí)實(shí)習(xí)難找,但是也沒有那么夸張哦,很多同學(xué)覺得假期后崗位少了,競爭大了,但真相是:機(jī)會一直有,關(guān)鍵看我們怎么找哦1.首先,別被“金三銀四”嚇到。雖然春招高峰期在3-4月,但5月后很多企業(yè)會補(bǔ)招(比如有人鴿了offer,或者項(xiàng)目突然缺人)。建議多盯招聘平臺(***、******)、企業(yè)官網(wǎng),甚至直接找內(nèi)推,很多急招崗位根本不會大張旗鼓宣傳!  2.其次,調(diào)整心態(tài)+策略。如果大廠暫時(shí)沒坑,試試中小公司或初創(chuàng)團(tuán)隊(duì)。它們可能沒名氣,但能讓你接觸核心業(yè)務(wù),比在大廠打雜更鍛煉人。簡歷也別海投,針對崗位改內(nèi)容,比如投運(yùn)營就突出社團(tuán)策劃經(jīng)歷,投技術(shù)崗就狂塞項(xiàng)目代碼。  3.最后,可以臉皮厚點(diǎn),主動(dòng)出擊(哈哈這個(gè)方法適合社畜)!在招聘軟件上直接私聊HR:請問還有實(shí)習(xí)hc嗎?等等。甚至去小紅書、微博搜實(shí)習(xí)繼任,很多人離職前會發(fā)帖找替補(bǔ),這種機(jī)會競爭小、流程快!  總結(jié):難不難找取決于行動(dòng)力。與其焦慮,不如每天投10份簡歷+練面試,說不定下一個(gè)offer就是你的!PS:暑假前是最后一波機(jī)會,沖就完事了!與諸位共勉,加油!#五一之后,實(shí)習(xí)真的很難找嗎?#
點(diǎn)贊 評論 收藏
分享
想找一份嵌軟助理崗位,但是這么久了沒一個(gè)面試,能看看簡歷上有什么問題嗎
點(diǎn)贊 評論 收藏
分享
美團(tuán)騎手一面面經(jīng)
一面技術(shù)面,面試官應(yīng)該是一個(gè)老騎手了,懂得很多,拷打的很深,很多問題我都答不上來,感覺進(jìn)不了站長二面了。。。1.自我介紹,有什么特質(zhì)適應(yīng)騎手的工作#五一之后,實(shí)習(xí)真的很難找嗎?##牛客AI配圖神器#然后開始問情景題2.假設(shè)你午高峰時(shí)同時(shí)配送多個(gè)訂單,cbd有5個(gè)訂單同時(shí)超時(shí)預(yù)警,其中3個(gè)在寫字樓20層以上且電梯排隊(duì),1個(gè)是容易灑的湯品,另1個(gè)客戶備注“遲到就拒收,等著差評吧”,你會如何設(shè)計(jì)這次配送的策略?根本答不出來,感覺就不應(yīng)該一次接這么多單。。。。我回答應(yīng)該按照距離來看,然后再先滿足湯品,然后送備注的那個(gè)客戶,最后再送寫字樓的,面試官感覺不是很滿意。。。3.調(diào)度系統(tǒng)發(fā)現(xiàn)騎手在午高峰時(shí)只接距離近、單價(jià)高的訂單,導(dǎo)致長距離訂單積壓。作為平臺方,你會如何優(yōu)化調(diào)度算法來平衡騎手收益和用戶體驗(yàn)?答不上來。。。騎手崗為什么會問到平臺方啊,直接說不清楚,換個(gè)問題4.換了個(gè)問題,現(xiàn)在你手上已經(jīng)有4個(gè)訂單,全部臨近超時(shí),這時(shí)系統(tǒng)突然推送一個(gè)肥單,配送費(fèi)翻倍。但接了必然導(dǎo)致已有訂單超時(shí)。你會怎么決策?答應(yīng)該放棄肥單,肯定不能超時(shí)啊。。。不知道為什么要問這個(gè),感覺現(xiàn)在美團(tuán)特別喜歡問超時(shí)的情況?感覺面試官已經(jīng)有些不耐煩了。。。。回答的確實(shí)不好,可能這些問題對于老騎手來說很簡單吧,然后問了道算法5.算法:給定一個(gè)地圖(用鄰接矩陣表示),m個(gè)取餐點(diǎn)和n個(gè)送餐點(diǎn)坐標(biāo),你當(dāng)前位于取餐點(diǎn)1,計(jì)算最優(yōu)路徑,使得總行駛距離最短,且所有餐點(diǎn)都取到后再開始配送,要用貪心,但是時(shí)間太短了沒做出來。。。6.反問,我問了咱們站點(diǎn)主要接的單是周圍多大范圍的,爬樓多不多,面試官回答要具體看情況,不好說,但是爬樓肯定要爬。然后又問了問面試官個(gè)人對于差評是怎么看的,大概差評率多高算高,面試官說越低越好,不好確定,怎么感覺什么都沒問出來。。。感覺要掛了,發(fā)個(gè)面經(jīng)攢功德,如果掛了我就投隔壁京東騎手了,那邊貌似缺人,應(yīng)該好進(jìn)一些。。。。有無uu已經(jīng)是騎手的給個(gè)內(nèi)推?#面試時(shí)最害怕被問到的問題##如何判斷面試是否涼了##大家都開始春招面試了嗎##美團(tuán)##美團(tuán)約面##美團(tuán)暑期一面#
查看7道真題和解析
點(diǎn)贊 評論 收藏
分享
java五月初終于有實(shí)習(xí)offer了!
#五一之后,實(shí)習(xí)真的很難找嗎?# 潛水三個(gè)月,一度不敢打開牛客,昨天終于收到了第一個(gè)offer。lz本科非科班,跨保的轉(zhuǎn)碼,本來對自己的基礎(chǔ)還挺有自信的,因?yàn)楸究菩蘖撕芏嘤?jì)算機(jī)專業(yè)課,感覺ds os這些學(xué)的還蠻好,加上實(shí)驗(yàn)室承諾放暑期實(shí)習(xí),所以從國慶后就用大量時(shí)間學(xué)習(xí)java相關(guān),lc大概300多題的水平;lz的職業(yè)規(guī)劃來說,其實(shí)一直是不想去互聯(lián)網(wǎng)的,更傾向穩(wěn)定,想找個(gè)國企銀行,但是實(shí)習(xí)可以求互聯(lián)網(wǎng),畢竟是萬金油的實(shí)習(xí)經(jīng)歷。但是到了面試的時(shí)候,才發(fā)現(xiàn)了很多問題。3月3.18 美團(tuán)到店外賣團(tuán)隊(duì),第一次面試面美團(tuán)核心部門,面試官很好,開頭幾個(gè)場景題,讓我分析,我根據(jù)理解說了一下,然后問了redis等八股,感覺自己回答的還不錯(cuò),最后做題lc 93,有點(diǎn)難沒做來,掛了3.25 被優(yōu)選撈了,然后優(yōu)選問的八股偏多,OS 網(wǎng)絡(luò) 多線程,lz發(fā)現(xiàn)面試的時(shí)候tcp udp這種都說不明白,自己的基礎(chǔ)有點(diǎn)太爛了(因?yàn)楫?dāng)時(shí)看mysql redis居多),其他八股以為自己懂,結(jié)果不熟悉,活該自己掛投了一堆pdd 小紅書 快手,沒人理4月上投了淘天,電話一面,項(xiàng)目被拷打的懷疑人生,八股問的我也一半不會,我都不好意思繼續(xù)面,痛定思痛決定項(xiàng)目和八股重頭來過,跟著教研室速通bat的大佬好好學(xué)餓了么,筆試掛,互聯(lián)網(wǎng)這邊沖不動(dòng)了銀行:招銀網(wǎng)絡(luò)科技和招卡中心一面,網(wǎng)絡(luò)科技一面面了70分鐘,我以為穩(wěn)了要oc了,然后掛了??ㄖ行囊幻孢^,二面線下,從成都去西安面試,也是挺奔波的還參加了中總和工總的筆試,等結(jié)果中4月下感覺自己不能all in銀行,今年太卷了,而且進(jìn)度慢,又重新去投互聯(lián)網(wǎng),還有各種國企,研究所,小廠,只要是能投的我都投,大概60家左右,但是時(shí)間確實(shí)不早了,互聯(lián)網(wǎng)只發(fā)了筆試測評,做了無消息,然后券商有人約面,等結(jié)果中;其他比如恒生電子、美的這種,做了筆試并且都a了,還是無消息,不知道他們怎么挑的人5月過了五一,第一個(gè)星期,有三個(gè)面試,好幾個(gè)筆試測評,還挺累的,然后自己知道卡中心這星期大概率要開獎(jiǎng)了,很忐忑,平安證券面完了面試官說這星期給我結(jié)果,還有一個(gè)其他小公司,等于這周開三個(gè)獎(jiǎng),8號晚上吃飯,卡中心來offer了,結(jié)束忐忑;總結(jié)下來,今年還是很難找,很卷,但是真的別放棄,放棄就真寄了,這幾個(gè)月其中辛苦,只有找工作的各位自己才知道,希望大家接下來都能拿到滿意的offer!#暑期#
軒日天即將年薪百萬:電子科大都這么難哦
查看3道真題和解析
點(diǎn)贊 評論 收藏
分享
(高頻問題)121-140 計(jì)算機(jī) Java后端 實(shí)習(xí) and 秋招 面試高頻問題匯總
專欄簡介121. 分庫分表中的數(shù)據(jù)定位策略詳解在分庫分表架構(gòu)中,數(shù)據(jù)定位算法是核心環(huán)節(jié),它決定了數(shù)據(jù)如何有效地分布到不同的數(shù)據(jù)庫實(shí)例或表中。選擇合適的定位策略對系統(tǒng)的性能、可擴(kuò)展性和維護(hù)性至關(guān)重要。常用的數(shù)據(jù)定位策略包括哈希取模。這是一種簡單且常見的方法,通常選擇業(yè)務(wù)主鍵或關(guān)鍵字段作為分片鍵,通過哈希函數(shù)計(jì)算其哈希值,再對分片(庫或表)的總數(shù)取模,根據(jù)余數(shù)確定數(shù)據(jù)應(yīng)存儲的分片。該策略實(shí)現(xiàn)簡單,能較好地實(shí)現(xiàn)數(shù)據(jù)均勻分布。然而,其主要缺點(diǎn)在于當(dāng)分片總數(shù)發(fā)生變化(擴(kuò)容或縮容)時(shí),會導(dǎo)致大規(guī)模數(shù)據(jù)遷移,對系統(tǒng)穩(wěn)定性造成沖擊。范圍分區(qū)是另一種策略,它根據(jù)分片鍵的值范圍來劃分?jǐn)?shù)據(jù)。系統(tǒng)預(yù)先設(shè)定好每個(gè)分片負(fù)...
點(diǎn)贊 評論 收藏
分享
玩命加載中
??途W(wǎng)
牛客企業(yè)服務(wù)