字节算法岗面经
周三刚结束的三面,还在等结果,希望能有好消息叭。
一面
1. 问了CV里的NMS算法,然后让coding了一下这个算法
2. L1-norm和L2-norm的区别
3. Word2Vec里是如何优化的(hierarchy softmax, negative sampling)
4. SVM可以自己选择核函数么(没答出来)
5. 线程和进程的区别
6. TLB的原理
7. 实习的项目讲了一下
二面
1. FaceNet里的triplet loss的公式,反向传播如何更新
2. 又问了一次hierarchy softmax
3. sigmoid, tanh, relu的区别
4. 半监督学习里无标签样本的打标
5. 手写一下k-means
6. 讲一下BERT的原理
7. 如何调参
三面
1. lc 23
2. tanh和sigmoid谁收敛快
3. BN的公式,和GN的区别
4. 描述一下各类优化器及其公式
5. 如何给主播打标签(开放题)
希望大家都能offer满满叭!
#字节跳动##提前批##算法工程师##秋招##面经#