字节抖音NLP部门一面

1.自我介绍
2.拷打论文
围绕论文的一些问题
2.1有哪些常见的图卷积
2.2指标
2.3attention是怎么做的
3.拷打另一篇论文
围绕论文的一些问题,延展八股
transformer架构
layer norm和batch norm 区别
自注意力结构
T5架构和任务设计
Bert的最大长度限制
了解哪些attention方式
encoder和decoder区别
4.拷打项目
常见的微调方式
open性问题:你觉得llm和传统的nlp模型的区别在哪?
5.手撕代码:三数之和
#一面面经#
全部评论
最近好多一轮游,心态炸了,不管怎么说,许愿复试
点赞 回复
分享
发布于 04-19 15:09 广东

相关推荐

点赞 评论 收藏
转发
1 2 评论
分享
牛客网
牛客企业服务