节前,我们星球组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、参加社招和校招面试的同学,针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。
汇总合集:《大模型面试宝典》(2024版) 发布!
今天分享星球社群一位小伙伴的面试题,更多大厂面试题、参考答案,文末社群中获取,喜欢本文记得收藏、关注、点赞。
- 简单自我介绍
- 介绍一下论文,面试官详细问了根据伪标签置信度
- 和样本难度设计课程学习的实现方式,让写了个伪代码。
- 论文里提到有用attention,介绍一下attention的有哪些以及原理?
- 论文是你自己完成的还是有和其他团队合作?
- 过拟合的表现有哪些?
- BN训练和测试的区别在哪里?
- 梯度下降的公式?
代码考察
- 1、写一下softmax函数?这里面如果xi很大会出现指数上溢问题,怎么修改代码?
- 2、基于1,把softmax写成一个class,并实现forward()和backward()?这里的backward()让我现在纸上推导梯度,推了后草稿纸给他看了,让我补充i的梯度情况。然后代码实现。
- 3、leetcode题:最大连续子数组和
- 介绍一下多模态检索比赛
- 比赛里的MeanRecall指标怎么算的?只有这一个指标吗?
- 讲一下比赛用到的gradientcheckpoints节省内存的原理是啥?
- 时间换空间,前向时只存部分节点的激活值,反向时重新计算需要的节点激活值
- 讲一下混合精度训练的原理?
- 介绍一下CLIP模型?两个方面,文本作为视觉的监督信号进行预训练,zero-shot比较强大使得想要预测的图片类别不再局限于预训练的label
- 说说你认为CLIP为什么会这么强大?
答:训练数据来源是大量(几十亿)的Weblmage及文本对,所以数据来源比较广泛;还有对比学习这种代理任务,比较简洁,可以使模型专注于学习两种模态数据的对齐能力 - 你比赛成绩排在第五,和前几名的差距在哪里?
代码考察
- 1、leetcode原题课程表II
- 2、leetcode原题两链表求和,把结果存在新链表。开始用了暴力方法,面试官说不使用额外空间怎么做,于是遍历链表逐元素相加并考虑进位
是部门经理面
- 问了问什么时候来实习,能实习多久?
- 怎么克服导师那边的事儿
- 如果技术不太匹配,做的偏图像检索和他们的3D视觉不太合,怎么解决?
- 与前两轮面试官交流感觉怎么样
- 反问:部门还有实习生hc吗?
前沿技术资讯、算法交流、求职内推、算法竞赛、面试交流(校招、社招、实习)等、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企开发者互动交流~
我们建了算法岗技术与面试交流群, 想要获取最新面试题、了解最新面试动态的、需要源码&资料、提升技术的同学,可以直接加微信号:mlc2040。加的时候备注一下:研究方向 +学校/公司+CSDN,即可。然后就可以拉你进群了。
方式①、微信搜索公众号:机器学习社区,后台回复:加群
方式②、添加微信号:mlc2040,备注:技术交流
-
一文搞懂 Transformer
-
一文搞懂 Attention(注意力)机制
-
一文搞懂 Self-Attention 和 Multi-Head Attention
-
一文搞懂 BERT(基于Transformer的双向编码器)
-
一文搞懂 GPT(Generative Pre-trained Transformer)
-
一文搞懂 Embedding(嵌入)
-
一文搞懂 Encoder-Decoder(编码器-解码器)
-
一文搞懂大模型的 prompt Engineering(提示工程)
-
一文搞懂 Fine-tuning(大模型微调)
-
一文搞懂 LangChain
-
一文搞懂 LangChain 的 Retrieval 模块
-
一文搞懂 LangChain 的智能体 Agents 模块