腾讯面试
#许愿# 许愿腾讯二面
一面
1、bert、transformer
bert怎么融合多模态的知识
怎么训练
原理
2、为什么选择大模型微调mistral 7b
lora 参数高效微调区别
3、SGD随机梯度分类器
原理
一面
1、bert、transformer
bert怎么融合多模态的知识
怎么训练
原理
2、为什么选择大模型微调mistral 7b
lora 参数高效微调区别
3、SGD随机梯度分类器
原理
全部评论
相关推荐
05-06 15:58
河南科技大学 计算机类 点赞 评论 收藏
转发