今天刷题的时候刷到有关动机效率定律的题,具体的关系如图
其实我主要好奇的是为什么动机越高,效率反而会降低,就像一个人很想学习,非常想学习一个东西,又没有考试什么的,结果反馈反而低。我总感觉有点怪。然后就去搜资料。
耶克斯-多德森定律( Yerks_Dodson Law)表明,各种活动都存在一个最佳的动机水平。动机不足或过分强烈,都会使工作效率下降。研究还发现,动机的最佳水平随任务性质的不同而不同。在比较容易的任务中,工作效率随动机的提高而上升;随着任务难度的增加,动机的最佳水平有逐渐下降的趋势,也就是说,在难度较大的任务中,较低的动机水平有利于任务的完成。这就是著名的耶克斯-多德森定律。
如果把动机改成愿望、想法之类的,我可以理解,那就是过度紧张、压力过大导致“效率”或者“表现”不尽人意。所以说白了我就是有点抠字眼。然后我查到这个“动机水平”指的是“个体的唤醒或兴奋状态”,也就是这个动机水平指的是“生理或者心理状态的变化”,也就是兴奋程度。
生理上的话我能想到的例子(完全没有愿望和欲望)是,假如一位消防员要执行高楼任务,但是他又有很高的恐高症,那他应该是非常抗拒这个任务的,但是作为消防员的职责以及这个任务的紧迫又不得不让他去完成。那这个时候会导致他的“动机水平”非常高、反应到身体上就是剧烈的生理反应、四肢僵硬动作不协调之类的。(可能例子不太合理,但是请勿喷)最后可能任务没有顺利完成,让别的同事帮忙之类的,就会导致效率低。
回到学习上的例子的话,有考试的我能理解,那没有考试的怎么解释呢?
就按我说的,很想,非常想,巨想学习。我的看法是会导致过分注重细节,过分注重完美主义,这种情况会导致学习上不会优先掌握核心部分的技术,会额外抠细枝末节,反复修改直到完美,但是这种方法会导致总体的效率极其低下。甚至对自己期望过高、或者兴趣过高导致各种突发奇想降低注意力之类的,虽然没有考试的压力,但是会影响整体的学习效率。其过高的“动机水平”在图中的反映也能看出,并不是对称的,下降的会更缓一点,也是比较符合我的想象的。
耶克斯-多德森定律虽然是心理学上的东西,但是它的核心思想是适度的压力(或者负载)可以优化表现,这个是可以抽象出来运用到别的领域的。
就好像神经网络中,我们用神经元来进行信号的输入和输出。
然后有每一层,输入层、隐藏层、输出层。神经网络现在还是很成熟了都,各种教程和讲解网上有很多,我就不想赘述了,主要是讲讲这个耶克斯-多德森定律的应用。(我还是建议大家多去了解了解计算机领域相关知识的,毕竟现在是AI的时代)
在神经网络的前向传播中,我们用激活函数来处理数据的加权输入,并且得到一个输出值。常见的激活函数比如Sigmoid函数、Tanh函数、ReLU函数、Leaky ReLU函数……
那么适度的激活函数响应可以帮助神经网络在学习和预测中表现最佳,而过强或过弱的激活函数响应可能导致网络性能下降。
- 激活函数输出过高可能导致梯度爆炸(反向传播的时候梯度值过大),就会导致模型参数更新不稳定,学习的过程难以控制。
- 激活函数输出过低会导致梯度消失,学习的速度变慢甚至停止,模型也很难学习到有效的特征。
所以我们为了最优的效率也好,结果也好,应该选择合适的激活函数,控制模型的输出范围和梯度变化。并且像Leaky RelU函数这种带参数的激活函数,我们也应该适当的调节参数。还有用正则化像L2正则化、Dropout等来限制网络的复杂性,避免模型在最后过度依赖激活函数的极端值,控制模型的表现。
个人瞎想,可能没什么帮助,但是谢谢观看