2025年04月10日
scikit-learn是Python中最好的机器学习库,而PyTorch又为我们构建模型提供了方便的操作,能否将它们的优点整合起来呢?在本文中,我们将介绍如何使用 scikit-learn中的网格搜索功能来调整 PyTorch 深度学习模型的超参数:
2025年04月10日
原文来源:GitHub
「机器人圈」编译:嗯~阿童木呀、多啦A亮
Tensorflow
主要特征和改进
在Tensorflow库中添加封装评估量。所添加的评估量列表如下:
1. 深度神经网络分类器(DNN Classifier)
2025年04月10日
作者:明泽Danny
来源:公众号|计算机视觉工坊(系投稿)
前言
本次给大家更新的是关于实时语义分割的工作。
语义分割论文
语义图像分割是计算机视觉中发展最快的领域之一,有着广泛的应用。在许多领域,如机器人和自动驾驶汽车,语义图像分割是至关重要的,因为它提供了必要的上下文,以采取行动,基于对场景的理解在像素级。
2025年04月10日
图:pixabay
原文来源:hackernoon
作者:AndreyNikishaev
「机器人圈」编译:嗯~阿童木呀、多啦A亮
在计算机领域,即使是对业界专家来说,调试神经网络也是一项艰巨的任务。数百万个参数混杂在一起,即使是一个小小的变化却可以将你所有的努力付之一炬。如果没有调试和可视化,你的所有行动都只不过是将一个硬币弹出,却没有入罐,更糟糕的是它会浪费你的时间。在本文中我收集了一些方法,以帮助你能够尽快找到问题所在并将其加以解决。
2025年04月10日
上一篇,我们介绍如何用数学的方式来表示神经元。神经元是我们大脑接收外界信息的基础单位。下图可以更详细的观察神经元的结构。
备注:神经元按照传输方向及功能可分为三种:感觉神经元、运动神经元、联络神经元。不同功能、不同区域的神经元外型有所差异,依照突起的多寡分成多极神经元、单极神经元(伪单极神经元)、双极神经元。如感觉神经元中的伪单极神经元,因为看起来只有一个突触,只有单一条轴突,没有树突而得名。
2025年04月10日
大型语言模型在各个领域都展现出了卓越的性能,但其核心组件之一——softmax注意力机制在计算资源消耗方面存在显著局限性。本文将深入探讨如何通过替代方案实现线性时间复杂度,从而突破这一计算瓶颈。
本文假设读者已经熟悉ChatGPT、Claude等模型及其底层的transformer架构原理。注意力机制是这类模型的核心组件。与传统循环神经网络(RNN)将历史信息压缩存储在固定维度的隐藏状态中不同,注意力机制能够直接访问和选择性利用历史信息。这种机制本质上是在每次预测时,根据当前查询动态检索最相关的历史信息。
2025年04月10日
2015 年 11 月,wikipedia的用户 Laughinthestocks 首次引入了“激活函数表”。从那时开始到现在,维基百科页面已经发生了 391 次更改。在本文中,我通过自己写的一个程序来挖掘截至 2022 年 4 月 22 日时维基百科页面历史中的每个唯一激活函数。本文还提供了针对激活函数的适当研究论文的附加链接,如果没有或者在无法找到特定研究论文的情况下,提供了相关的相关论文。
例如:通常人们会将 tanh 用于 FNN,将 ReLU 用于 CNN。