醋醋百科网

Good Luck To You!

汇总|实时性语义分割算法

作者:明泽Danny

来源:公众号|计算机视觉工坊(系投稿)

前言

本次给大家更新的是关于实时语义分割的工作。

语义分割论文

语义图像分割是计算机视觉中发展最快的领域之一,有着广泛的应用。在许多领域,如机器人和自动驾驶汽车,语义图像分割是至关重要的,因为它提供了必要的上下文,以采取行动,基于对场景的理解在像素级。

涨姿势!「手动」调试神经网络,可以这样做

图:pixabay

原文来源:hackernoon

作者:AndreyNikishaev

「机器人圈」编译:嗯~阿童木呀、多啦A亮

在计算机领域,即使是对业界专家来说,调试神经网络也是一项艰巨的任务。数百万个参数混杂在一起,即使是一个小小的变化却可以将你所有的努力付之一炬。如果没有调试和可视化,你的所有行动都只不过是将一个硬币弹出,却没有入罐,更糟糕的是它会浪费你的时间。在本文中我收集了一些方法,以帮助你能够尽快找到问题所在并将其加以解决。

#轻松学习深度学习(AI) 4 神经元的一般化

上一篇,我们介绍如何用数学的方式来表示神经元。神经元是我们大脑接收外界信息的基础单位。下图可以更详细的观察神经元的结构。

备注:神经元按照传输方向及功能可分为三种:感觉神经元、运动神经元、联络神经元。不同功能、不同区域的神经元外型有所差异,依照突起的多寡分成多极神经元、单极神经元(伪单极神经元)、双极神经元。如感觉神经元中的伪单极神经元,因为看起来只有一个突触,只有单一条轴突,没有树突而得名。

线性化注意力综述:突破Softmax二次复杂度瓶颈的高效计算方案

大型语言模型在各个领域都展现出了卓越的性能,但其核心组件之一——softmax注意力机制在计算资源消耗方面存在显著局限性。本文将深入探讨如何通过替代方案实现线性时间复杂度,从而突破这一计算瓶颈。

注意力机制基础理论

本文假设读者已经熟悉ChatGPT、Claude等模型及其底层的transformer架构原理。注意力机制是这类模型的核心组件。与传统循环神经网络(RNN)将历史信息压缩存储在固定维度的隐藏状态中不同,注意力机制能够直接访问和选择性利用历史信息。这种机制本质上是在每次预测时,根据当前查询动态检索最相关的历史信息。

使用多尺度patch合成来做高分辨率的图像复原

作者:Chu-Tak Li

神经网络训练tricks

作者 | Anticoder

42个激活函数的全面总结

2015 年 11 月,wikipedia的用户 Laughinthestocks 首次引入了“激活函数表”。从那时开始到现在,维基百科页面已经发生了 391 次更改。在本文中,我通过自己写的一个程序来挖掘截至 2022 年 4 月 22 日时维基百科页面历史中的每个唯一激活函数。本文还提供了针对激活函数的适当研究论文的附加链接,如果没有或者在无法找到特定研究论文的情况下,提供了相关的相关论文。

例如:通常人们会将 tanh 用于 FNN,将 ReLU 用于 CNN。

用Keras实现使用自归一化神经网络来解决梯度消失的问题

作者:Jonathan Quijas

[931]ScalersTalk机器学习小组第19周学习笔记(深度学习-8)

Scalers点评:机器学习小组是成长会的内部小组,这是成长会机器学习小组第19周学习笔记,也是深度学习第8次的复盘笔记

本周学习情况:

本周(20160711—20160717)的学习主要为理论学习。重点介绍了Recurrent Neural Networks在不同情况下的变种、Recursive Neural Networks的基本概念,以及Long Short Term Memory Networks。本周复盘主持是[S290] Ramon。

一盘棋都没下过,只听人类评论比赛,AI就学会了国际象棋,还战胜了DeepChess

AI要学会国际象棋,是不是一定要下过棋才行?

不一定。

伦敦大学学院的小伙伴们,开发了一只新的国际象棋AI,只看人类对比赛的评论,就能学会下棋。

AI的名字叫SentiMATE,是通过解说员/评论员言语里的情绪,来判断一手棋的好坏。

团队发现,只靠这些情绪,AI就学到了国际象棋的基本规则,以及一些关键策略,并战胜了前辈DeepChess算法。

重点是,它对训练数据量的要求还不高。

那么,这只AI到底都经历了什么?

<< < 38 39 40 41 42 43 44 45 46 47 > >>
控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言