损失函数是机器学习中非常重要的一个概念,其本质是衡量推理值与真实目标值之间的逼近情况的一种手段,不同的损失函数适用于不同的使用场景,这篇文章总结了Tensorflow与Keras中常用的几种用于分类任务的交叉熵损失函数。
编辑:LRST
2025年03月26日
损失函数是机器学习中非常重要的一个概念,其本质是衡量推理值与真实目标值之间的逼近情况的一种手段,不同的损失函数适用于不同的使用场景,这篇文章总结了Tensorflow与Keras中常用的几种用于分类任务的交叉熵损失函数。
2025年03月26日
在上一篇文章中,我们学习了 PyTorch 的自动求导机制(Autograd),并实现了一个简单的线性回归模型。本文将深入探讨神经网络的基本概念,并使用 PyTorch 构建一个简单的神经网络来解决经典的
2025年03月26日
在上篇文章中,我们介绍了知识蒸馏技术的基本概念和工作原理,展示了它如何将大型模型的能力转移到小型模型中。本文将深入探讨知识蒸馏的核心机制——软标签,揭示它为何是实现有效知识迁移的关键。
2025年03月26日
AIGC 的定义
AIGC 即人工智能生成内容(Artificial Intelligence - Generated Content),是指利用人工智能技术,如机器学习、深度学习中的生成式对抗网络(GANs)、Transformer 架构等,自动生成文本、图像、音频、视频等各种形式内容的技术。例如,通过输入一些关键词或主题,AIGC 模型可以生成新闻报道、小说、绘画、音乐等多种类型的作品。
2025年03月26日
在前几篇文章中,我们学习了如何使用卷积神经网络(CNN)和迁移学习解决图像分类问题。本文将介绍一种全新的深度学习模型——生成对抗网络(Generative Adversarial Network, GAN)
2025年03月26日
在前几篇文章中,我们学习了如何使用全连接神经网络和卷积神经网络(CNN)解决手写数字识别问题。然而,在实际应用中,我们常常需要处理更复杂的图像分类任务,例如识别猫狗、车辆、植物等。对于这些任务,从头训练一个深度学习模型通常需要大量的数据和计算资源。