程序员宝藏库:
https://github.com/Jackpopc/CS-Books-Store
2025年04月25日
论文题目:Enhancement of SSD by concatenating feature maps for object detection
2025年04月25日
LeNet-5出自论文Gradient-Based Learning Applied to Document Recognition,是一种用于手写体字符识别的非常高效的卷积神经网络。
2025年04月25日
卷积神经网络(cnn)是一种神经网络,通常用于图像分类、目标检测和其他计算机视觉任务。CNN的关键组件之一是特征图,它是通过对图像应用卷积滤波器生成的输入图像的表示。
1、卷积操作
卷积的概念是CNN操作的核心。卷积是一种数学运算,它把两个函数结合起来产生第三个函数。在cnn的上下文中,这两个函数是输入图像和滤波器,而得到的结果就是特征图。
2、卷积的层
卷积层包括在输入图像上滑动滤波器,并计算滤波器与输入图像的相应补丁之间的点积。然后将结果输出值存储在特征映射中的相应位置。通过应用多个过滤器,每个过滤器检测一个不同的特征,我们可以生成多个特征映射。
2025年04月25日
AI - 人工智能 LG - 机器学习 CV - 计算机视觉 RO - 机器人
1、[LG]*DiffTune: Optimizing CPU Simulator Parameters with Learned Differentiable Surrogates
2025年04月25日
1.Wide ResNet
Wide ResNet为Zagoruyko等人于2016年提出,其认为残差结构比深度更重要。他们设计了更宽的残差模块(如图2所示),实验证明50层的加宽残差网络效果比152层的原ResNet网络效果更好。
2025年04月25日
联合编译:Blake、高斐
2016年8月31日,Google团队宣布针对TensorFlow开源了最新发布的TF-slim资料库,它是一个可以定义、训练和评估模型的轻量级的软件包,也能对图像分类领域中几个主要有竞争力的网络进行检验和定义模型。
为了进一步推进这个领域的进步,今天Google团队宣布发布Inception-ResNet-v2(一种卷积神经网络——CNN),它在ILSVRC图像分类基准测试中实现了当下最好的成绩。Inception-ResNet-v2是早期Inception V3模型变化而来,从微软的残差网络(ResNet)论文中得到了一些灵感。相关论文信息可以参看我们的论文
2025年04月25日
深度学习的概念源于人工神经网络,而之所以叫深度学习。我认为有 2 点,第一是网络很深,非常深,第二是学习,如何学习呢?通过数学建模,不断调整参数达到减少目标值和预测值之间的误差,从而可以拟合任意的曲线,达到准确预测的目的。
而今天我们就来谈谈深度学习的一个特点:深。
深层网络一般会比浅层网络效果好,包含的信息更多,因此,如果我们想要提升模型准确率,最直接的方法就是把网络设计的更深,这样模型的准确率会越来越准确。