?一面1??時(shí)間:1h+自我介紹2??項(xiàng)目介紹:問(wèn)的很細(xì),過(guò)程中不停打斷提問(wèn)算法競(jìng)賽項(xiàng)目,整體數(shù)據(jù)處理流程、模型效果評(píng)估方法、心得體會(huì)3??八股:簡(jiǎn)單介紹一下 BERT 和 TransformerAttention 和 self-attention 有什么區(qū)別?4??Transformer 的復(fù)雜度Bert 用的什么位置編碼,為什么要用正弦余弦來(lái)做位置編碼?還知道其他哪些位置編碼?5??除了 bert 還做過(guò)哪些模型的微調(diào)?為什么現(xiàn)在的大模型大多是 decoder-only 的架構(gòu)?6??講一下生成式語(yǔ)言模型的工作機(jī)理用過(guò) LoRA 嗎?講一下原理?7??算法題最大子段和跳臺(tái)階其他問(wèn)后續(xù)安排和實(shí)習(xí)時(shí)長(zhǎng),以及反問(wèn)?二面1??自我介紹2??項(xiàng)目:深挖八股Transformer 結(jié)構(gòu)和 LSTM 的區(qū)別和優(yōu)勢(shì),Transformer 怎么體現(xiàn)時(shí)序信息?3??Transformer Encoder 和 Decoder 的輸入輸出和結(jié)構(gòu)BatchNorm 更多用在視覺(jué)上,LayerNorm 更多用在語(yǔ)言上,為什么有沒(méi) chatGLM,LLaMA 等部署、微調(diào)經(jīng)歷?4??有沒(méi)有了解過(guò)大模型加速推理?5??講一下 Flash Attention?6??算法題先說(shuō)思路再寫代碼1、數(shù)組中的第K個(gè)最大元素2、數(shù)組 nums 表示若干個(gè)區(qū)間的集合,請(qǐng)你合并所有重疊的區(qū)間,并返回一個(gè)不重疊的區(qū)間數(shù)組,該數(shù)組需恰好覆蓋輸入中的所有區(qū)間。輸入: nums =[[1,3],[2,6],[8,10],[15,18]]輸出:[[1,6],[8,10],[15,18]]??對(duì)于想求職算法崗的同學(xué),如果想?yún)⒓痈哔|(zhì)量項(xiàng)目輔導(dǎo),提升面試能力,歡迎后臺(tái)聯(lián)系。