枚金币。”
瑞克不加任何加工,直接告诉国王:“27
枚金币。”
这个信使瑞克的工作方式,就像数学中的恒等函数(identity
function):
无论输入是什么,输出都是一样的,不做任何调整。
比喻:回归问题中的恒等函数
=
透明传输
回归问题的目标是预测一个连续的数值(比如房价、温度、销售额)。在神经网络的输出层,我们通常使用恒等函数,因为我们希望预测出的数值保持原样,而不是被改变或限制。
想象你有一个透明管道,用来传输数字:
?
你放进去
27,它输出的还是
27。
?
你放进去
100。5,它输出的还是
100。5。
?
你放进去
-3。7,它输出的仍然是
-3。7。
这个透明管道就像恒等函数,它让预测值直接流向输出层,不做任何变换。
为什么回归问题需要恒等函数?
在神经网络中,我们通常会在隐藏层使用非线性激活函数(比如
re露、sigid、tanh)来学习复杂的关系。但在回归任务的输出层,我们不需要对最终结果进行非线性变换。
比如:
?
如果我们用
sigid
作为输出激活函数,所有预测值都会被压缩到
到