Yinghao Sun

1073. 负二进制数相加(Rating 1807)

以下内容偏向于记录个人练习过程及思考,请审慎阅读。 题目 1073. 负二进制数相加 Rating 1807 思路 开始想仿照 bit0 + bit1 + carry_bit 的形式进行枚举,枚举过程中发现 1 + 1 + 0 = 110 那么按照这种思路计算 11 + 11 的话,会发现永远都算不完,1会一直往高位累加,于是就卡住了… 翻看了下题解,发现几个月前自己独立解...

快速了解一个网络:YOLO, You Only Look Once (YOLOv1)

以下内容偏向于记录个人学习过程及思考,请审慎阅读。 背景 基于region proposals的二阶段目标检测网络太慢了 核心思想 提出一种一阶段的目标检测网络结构,将目标检测任务当作一种回归任务去做。 Pipeline 将输入图片分为 S x S 个 grid,每个 grid 预测 B 个框的位置和置信度 + C 个 class 的概率。 因此输出 encode 为 S x...

快速了解一个网络:SSD, Single Shot MultiBox Detector

以下内容偏向于记录个人学习过程及思考,请审慎阅读。 背景 基于region proposals的二阶段目标检测网络太慢了 核心思想 提出一种一阶段的目标检测网络结构。基于规则,在不同层的不同位置产生不同形状的候选框,经过设计后这些候选框相对固定,规避了region proposals带来的时间。 不同深度的卷积层,其感受野不同。 浅层的卷积层,感受野较小,此时的...

3335. 字符串转换后的长度 I(Rating 1806)

以下内容偏向于记录个人练习过程及思考,请审慎阅读。 题目 3335. 字符串转换后的长度 I Rating 1806 思路 思路 1(递推) 根据题目描述,答案会非常大,所以模拟肯定是行不通的。 而且本题只需要输出最后的数量,不需要具体的序列,所以也没有必要模拟。 一开始考虑从a出发,判断多少次后会变成2个,再多少次后会变成3个,写了几层发现有一定规律,但非常不好实现,而且...

Normalization Layer

以下内容偏向于记录个人学习过程及思考,请审慎阅读。 Batch Normalization (BN) Layer Batch Normalization(BN)是深度学习中广泛使用的一种正则化技术,主要用于加速神经网络的训练过程,减小网络对初始化权重的依赖,并在一定程度上缓解梯度消失或爆炸的问题。 BN 的核心思想是对神经网络的每一层的输出进行标准化,即对每个小批次中的激活值(激活输...

1080. 根到叶路径上的不足节点(Rating 1804)

以下内容偏向于记录个人练习过程及思考,请审慎阅读。 题目 1080. 根到叶路径上的不足节点 Rating 1804 思路 如果一个节点需要被删除,那么一定是其左右子树都遍历完后,发现所有路径上的节点和都小于limit。 而这件事情可以考虑使用递归的去做。 定义dfs函数,其返回某个节点的左右子节点都遍历完后的整条路径上的最大值。若这个最大值都小于limit,则这个节点就可以...

2096. 从二叉树一个节点到另一个节点每一步的方向(Rating 1804)

以下内容偏向于记录个人练习过程及思考,请审慎阅读。 题目 2096. 从二叉树一个节点到另一个节点每一步的方向 Rating 1804 思路 几个点想明白,代码就写出来了 二叉树中,一个节点到另一个节点,一定经过二者的“最近公共祖先”节点。 从根节点出发,分别找开始节点和目标节点比较容易,dfs一下,向左还是向右,记录路径即可。 ...

快速了解一个网络:FPN, Feature Pyramid Network

以下内容偏向于记录个人学习过程及思考,请审慎阅读。 背景 基本上本文的idea可以用两张图说清楚,第一张如下。 图(a) 表示图像作降采样形成图像金字塔,在不同层提取feature可以对各种尺度的目标都有比较好的检测效果,但缺点也显而易见,就是耗时 + 耗内存 图(b) 表示了RCNN系列算法,即通过CNN网络,叠加多层卷积,来获得最后的fea...