腾讯QQ机器学习算法凉经

1.transformer的八股,挺常规的,比如为什么是Ln不是BN,写attention的公式,encoder和decoder怎么交互,decoder几层mha,transformer和rnn的不同
2. 梯度消失解决方法
3. 过拟合解决方法
4. 代码题:找列表最小值
结论,问得很简单很基础,但是答得一坨😅,项目也没问
全部评论
老哥投的什么岗
点赞 回复
分享
发布于 05-07 11:56 新加坡

相关推荐

一面(1)死锁的两种原因(2)模型量化的方式,我说kv cache和参数量化,面试官问量化是怎么提高推理加速的效率,我答不太上来(3)transformer自注意力层的时间复杂度(4)stack和dequeue的区别(5)算法题:有效ip地址一面面试官是我遇到最善良的面试官,他对跨专业同学的包容性大到难以置信。也很感谢他的宽容和鼓励。最后反问环节,他跟我举了jieba分词的例子,鼓励我要多看代码,掌握好基础知识,很多时候实际应用就是利用大量基础知识来展开实现的。很可惜,他base北京,最终要去的是深圳,没办法找他当我mentor二面印象最深刻的问题是知识蒸馏技术路线。当时我介绍自己的项目,项目是关于bert模型知识蒸馏的。这个项目本身是偏指标驱动的,只要达到一定加速比/参数压缩比和一定范围内的精度损失即可。而面试官则提问我是否有做过文献和技术路线的调研,这部分我没答太好。幸好后面讲自己的工作就比较顺利了。算法题是字节经典题目“螺母螺栓匹配次数计算”,有兴趣的同学可以去查查。至于有没有问八股我记不太清了三面以后的规划、以前项目遇到什么难点+如何解决hr面论文等级、几作、贡献是什么;用几个词评价自己;为了面试做了什么准备;对面试岗位的理解;简单介绍自己的项目;能实习多久;研究生成绩怎样(因为我是转专业的学生,所以hr可能比较关心) #腾讯# #机器学习# #cdg# #算法#
点赞 评论 收藏
转发
2 14 评论
分享
牛客网
牛客企业服务