欧美1区2区3区激情无套,两个女人互添下身视频在线观看,久久av无码精品人妻系列,久久精品噜噜噜成人,末发育娇小性色xxxx

12.11 level
獲贊
17
粉絲
19
關(guān)注
0
看過 TA
220
北京郵電大學(xué)
2026
算法工程師
IP屬地:北京
暫未填寫個(gè)人簡介
私信
關(guān)注
有點(diǎn)久遠(yuǎn)了,今天剛二面,總結(jié)下。非常喜歡的面試官(一面),很帥很專業(yè)很聰明很落地很……(此處省略100字)。二面的leader沒開攝像頭,never mind,我就是個(gè)渣渣,無所謂的。記錄下沒答上來的點(diǎn)吧,大伙湊活看1. Deepseek部署:很落地,但是具體細(xì)節(jié)忘記了,當(dāng)時(shí)沒及時(shí)記錄下來。這個(gè)很火,建議剛?cè)腴T的朋友可以多看看dpsk新技術(shù)。2. Treereduece:不知道,只知道ringreduce3. mooncake:新技術(shù),答到KTransformer(CPU+GPU異構(gòu)加速)的時(shí)候,面試官提到的4. EP dispatch combine5. Pd分離 Deepseek - dual pipline chunked prefill6. 多卡分布式訓(xùn)推7. GEMM和GEMV實(shí)現(xiàn)和優(yōu)化上的區(qū)別8. contiueous batching9. chunked batching10. Offloading:系統(tǒng)資源不夠用的時(shí)候,卸載用不到的kvcache,或者沒有被激活的專家等等11. GPU命中率場景:1. 分布式部署的時(shí)候怎么去解決io bound2. Deepseek- MoE 部署  EP TP 部署優(yōu)劣對比評價(jià):猜你沒有看過vllm源碼+對分布式了解還不夠,然后也說了分布式需要資源,這也是實(shí)習(xí)的意義 二面:1. 為什么會有KVcache?為什么沒有Q cache?(正好以前研究時(shí)候手撕過,設(shè)想一個(gè)你好的prompt,模型也回答你好,關(guān)鍵地方在于對于同樣一個(gè)token,kv embedding的時(shí)候是同樣的結(jié)果)2. Cuda除了gemm還做過哪些?(沒有)3. 學(xué)這些東西用了多久?(兩個(gè)月。。答長了,怕覺得我,學(xué)了這么久還這么垃圾。答短了,怕覺得我,才學(xué)這么點(diǎn)時(shí)間,垃圾。當(dāng)然,長還是短,看他咯)4. 以后啥安排?會定居北京嗎?(回答對象、父母安排,意向是留在北京,機(jī)會多些)提到租房,問我了解京東附近房價(jià)嗎?(閑聊)5. 叫我做好準(zhǔn)備,工作強(qiáng)度不低,弱弱的問了一句時(shí)間,大概是10-8,還行吧,和學(xué)習(xí)的時(shí)間比起來這都還好。6. 說我不夠底層,確實(shí)吧,還得學(xué)啊,路漫漫其修遠(yuǎn)兮,吾將上下而求索參考連接:為什么加速LLM推斷有KV Cache而沒有Q Cache? - 莫葉何竹的回答 - 知乎https://www.zhihu.com/question/653658936/answer/107469197025Mooncake (1): 在月之暗面做月餅,Kimi 以 KVCache 為中心的分離式推理架構(gòu) - ZHANG Mingxing的文章 - 知乎https://zhuanlan.zhihu.com/p/705754254講解的非常好,不是那么有基礎(chǔ)的同學(xué)都可以試著了解一下【KTransformers 團(tuán)隊(duì)分享異構(gòu)推理架構(gòu)思路:基于內(nèi)存的大模型推理成本優(yōu)化】 https://www.bilibili.com/video/BV1VNQrYGEad/?share_source=copy_web&vd_source=0b7a45021acc545f42356bf3b2bb7080
查看17道真題和解析
0 點(diǎn)贊 評論 收藏
分享
中電信人工智能公司 大模型推理加速工程師實(shí)習(xí)生1. vllm sglang 有什么區(qū)別?sglang相對于vllm有什么好的?sglang為什么更適配推理這類的llm?dpskr1了解嗎?和基座llm有什么區(qū)別?假如要魔改vllm,可以怎么做?2. Cuda算子開發(fā)經(jīng)驗(yàn),性能對比過嗎?3. 大模型量化算法原理沒問(感覺默認(rèn)我懂)問有沒有實(shí)際部署過?有沒有看過autoawq的git庫?4. Clip原理,clip推理流程了解嗎?(簡歷里寫了解過一些cv mllm方向)5. 實(shí)習(xí)經(jīng)歷介紹,實(shí)現(xiàn)的算子性能如何?常見大模型算子優(yōu)化思路有哪些?(訪存優(yōu)化,并行優(yōu)化)6. Ascend CANN MindIE框架有哪些組成?7. 場景1:V100顯存多少,Dpsk Qwen 32B int8量化能部署嗎?怎么部署?(緊張了,int8說2比特位…)8. 場景2:并發(fā)場景下怎么測試最大并發(fā)數(shù),需要關(guān)注哪些指標(biāo)?(答的不好)(bsz,latency 我回答的gpu利用率顯存這些……面試官提示了從用戶角度,我腦子沒轉(zhuǎn)過來)(指標(biāo)含義沒問,默認(rèn)我懂)9. 場景3: vllm怎么去支持自研模型?面試官的建議:LLM有訓(xùn)練有推理,我們這個(gè)路子更偏向?qū)崿F(xiàn)算法,加速算法。同樣是attn,后端如何實(shí)現(xiàn),如何更快。需要對算法有一定了解,對工程能力要求也挺高。我了解但是不夠深入,實(shí)踐經(jīng)驗(yàn)較少。更深入去看vllm源碼,應(yīng)用層面怎么去調(diào)用算子,底層層面算子怎么實(shí)現(xiàn)的,怎么去實(shí)現(xiàn)更高性能算子(還提到可以從匯編層面出發(fā))。關(guān)于暑期:電信(或者說國企)集團(tuán)有統(tǒng)一的校招流程,需要投簡歷做筆試再分發(fā)簡歷到用人部門,沒有直接內(nèi)部轉(zhuǎn)正的。個(gè)人感受:國企面試還是比較溫和的,面試?yán)蠋熃o我的感覺也是,知道你這個(gè)地方不會了,能力到這了,就不會再問了。嗚嗚嗚,大廠全聚德的小垃圾(我)尸體暖暖的~#牛客AI配圖神器#
12.11:補(bǔ)后續(xù):hr說拉垮的點(diǎn),沒論文,實(shí)習(xí)時(shí)間短,不是大廠,內(nèi)容垃圾不深入……
查看9道真題和解析
0 點(diǎn)贊 評論 收藏
分享

創(chuàng)作者周榜

更多
關(guān)注他的用戶也關(guān)注了:
??途W(wǎng)
牛客企業(yè)服務(wù)