A I 算 法 题 1 AI算法题1 AI算法题1
1.视频教程:
B站、网易云课堂、腾讯课堂
2.代码地址:
Gitee
Github
3.存储地址:
Google云
百度云:
提取码:
特征工程类:
-
怎么去除DataFrame里的缺失值?
-
特征无量纲化的常见操作方法
-
如何对类别变量进行独热编码?
-
如何把“年龄”字段按照我们的阈值分段?
-
如何根据变量相关性画出热力图?
-
如何把分布修正为类正态分布?
-
怎么简单使用PCA来划分数据且可视化呢?
-
怎么简单使用LDA来划分数据且可视化呢?
深度学习类:
-
你觉得batch-normalization过程是什么样的
-
激活函数有什么用?常见的激活函数的区别是什么?
-
Softmax的原理是什么?有什么作用?CNN的平移不变性是什么?如何实现的?
-
VGG,GoogleNet,ResNet等网络之间的区别是什么?
-
残差网络为什么能解决梯度消失的问题
-
LSTM为什么能解决梯度消失/爆炸的问题
-
Attention对比RNN和CNN,分别有哪点你觉得的优势
-
写出Attention的公式
-
Attention机制,里面的q,k,v分别代表什么
-
为什么self-attention可以替代seq2seq
自然语言处理(NLP)类:
-
GolVe的损失函数
-
为什么GolVe会用的相对比W2V少
-
层次softmax流程
-
负采样流程
-
怎么衡量学到的embedding的好坏
-
阐述CRF原理
-
详述LDA原理
-
LDA中的主题矩阵如何计算
-
LDA和Word2Vec区别?LDA和Doc2Vec区别
-
Bert的双向体现在什么地方
-
Bert的是怎样预训练的
-
在数据中随机选择 15% 的标记,其中80%被换位[mask],10%不变、10%随机替换其他单词,原因是什么
-
为什么BERT有3个嵌入层,它们都是如何实现的
-
手写一个multi-head attention
推荐系统类:
-
DNN与DeepFM之间的区别
-
你在使用deepFM的时候是如何处理欠拟合和过拟合问题的
-
deepfm的embedding初始化有什么值得注意的地方吗
-
YoutubeNet 变长数据如何处理的
-
YouTubeNet如何避免百万量级的softmax问题的
-
推荐系统有哪些常见的评测指标?
-
MLR的原理是什么?做了哪些优化?
计算机视觉(CV)类:
-
常见的模型加速方法
-
目标检测里如何有效解决常见的前景少背景多的问题
-
目标检测里有什么情况是SSD、YOLOv3、Faster R-CNN等所不能解决的,假设网络拟合能力无限强
-
ROIPool和ROIAlign的区别
-
介绍常见的梯度下降优化方法
-
Detection你觉的还有哪些可做的点
-
mini-Batch SGD相对于GD有什么优点
-
人体姿态估计主流的两个做法是啥?简单介绍下
-
卷积的实现原理以及如何快速高效实现局部weight sharing的卷积操作方式
-
CycleGAN的生成效果为啥一般都是位置不变纹理变化,为啥不能产生不同位置的生成效果
- 1.mAP计算公式
- 2.SENet的实现细节
- 3.SoftNMS的优缺点
- 4.Rol Pooling的计算过程
- 5.介绍常见的损失函数
- 6.ResNet和ResNeXt的区别
- 7.anchor_bbox如何恢复到原始大小
- 8.BN的参数如何优化
- 9.介绍Focal Loss和变体
- 10.YOLO系列的损失函数
- 11.写出全概率公式&贝叶斯公式
- 12.模型训练为什么要引入偏差(bias)和方差(variance)?
- 13.CRF/朴素贝叶斯/EM/最大熵模型/马尔科夫随机场/混合高斯模型
- 14.如何解决过拟合问题?
- 15.One-hot的作用是什么?为什么不直接使用数字作为表示
- 16.决策树和随机森林的区别是什么?
- 17.朴素贝叶斯为什么“朴素naive”?
- 18.kmeans初始点除了随机选取之外的方法
-
LR中的L1/L2正则项是啥
-
简述决策树构建过程
-
解释Gini系数
-
决策树的优缺点
-
出现估计概率值为 0 怎么处理
-
随机森林的生成过程
-
介绍一下Boosting的思想
-
gbdt的中的tree是什么tree?有什么特征
-
xgboost对比gbdt/boosting Tree有了哪些方向上的优化
-
什么叫最优超平面
-
什么是支持向量
-
SVM如何解决多分类问题
-
核函数的作用是啥
- 19.LR明明是分类模型为什么叫回归
- 20.梯度下降如何并行化
- 21.
- 22.
- 23.
- 24.
- 25.
- 26.
- 27.
- 28.
- 29.
- 30.
- 31.
- 32.
- 33.
- 34.
- 35.
- 36.
- 37.
- 38.
- 39.
- 40.
- 41.
- 42.
- 43.
- 44.
- 45.
- 46.
- 47.
- 48.
- 49.
- 50.
- 51.
- 52.
- 53.
- 54.
- 55.
- 56.
- 57.
- 58.
- 59.
- 60.
- 61.
- 62.
- 63.
- 64.
- 65.
- 66.
- 67.
- 68.
- 69.
- 70.
- 71.
- 72.
- 73.
- 74.
- 75.
- 76.
- 77.
- 78.
- 79.
- 80.
- 81.
- 82.
- 83.
- 84.
- 85.
- 86.
- 87.
- 88.
- 89.
- 90.
- 91.
- 92.
- 93.
- 94.
- 95.
- 96.
- 97.
- 98.
- 99.
- 100.
- 101.
- 102.
- 103.
- 104.
- 105.
- 106.
- 107.
- 108.
- 109.
- 110.
- 111.
- 112.
- 113.
- 114.
- 115.
- 116.
- 117.
- 118.
- 119.
- 120.
- 121.
- 122.
- 123.
- 124.
- 125.
- 126.
- 127.
- 128.
- 129.
- 130.
- 131.
- 132.
- 133.
- 134.
- 135.
- 136.
- 137.
- 138.
- 139.
- 140.
- 141.
- 142.
- 143.
- 144.
- 145.
- 146.
- 147.
- 148.
- 149.
- 150.
- 151.
- 152.
- 153.
- 154.
- 155.
- 156.
- 157.
- 158.
- 159.
- 160.