Bridge619

Bridge619

Bridge619

命定的局限尽可永在,不屈的挑战却不可须臾或缺!

101 文章数
11 评论数
来首音乐
光阴似箭
今日已经过去小时
这周已经过去
本月已经过去
今年已经过去个月

Bridge619

1年前

仿射函数与非线性函数的区别

在深度学习中,仿射函数和非线性变换函数都是常用的数学函数,它们在神经网络的前向传播中扮演着重要的角色。

仿射函数是指线性变换加上平移变换,通常表示为 $f(x) = Ax+b$,其中 $A$ 是一个矩阵,$b$ 是一个向量。它可以将输入的特征空间映射到一个新的特征空间,并且可以保留特征空间的线性结构。仿射函数常常用于实现神经网络的线性层(例如全连接层)。

与之相反,非线性变换函数则能够引入非线性关系,从而提高神经网络的表达能力。非线性变换函数通常用于激活函数,例如 Sigmoid、ReLU、Tanh 等函数,它们将输入的实数映射到一个非线性的输出空间。这些函数通常具有非线性的激活特性,使得神经网络可以对复杂的数据进行更加有效的表示和分类。

综上所述,仿射函数与非线性变换函数的主要区别在于,仿射函数只能实现线性变换和平移,而非线性变换函数能够引入非线性关系,从而提高神经网络的表达能力。在神经网络中,仿射函数和非线性变换函数通常被组合使用,以构建更加复杂的模型。


深度学习中的净输入指什么

在深度学习中,净输入(Net Input)指的是神经元接收到的输入信号加权求和后的结果,通常包括一个偏置项(bias),并且经过激活函数(activation function)后得到神经元的输出。

具体来说,设神经元的输入为 $x_1, x_2, ..., x_n$,对应的权重为 $w_1, w_2, ..., w_n$,偏置项为 $b$,则神经元的净输入为:

$\text{Net Input} = \sum_{i=1}^n w_i x_i + b$
这个净输入值会传递到激活函数中,根据激活函数的不同,神经元的输出也会不同。常见的激活函数有sigmoid函数、ReLU函数、tanh函数等。

0 查看评论

Bridge619

1年前

2023-03-05 21:32:22 星期日

好久没发动态了,今天遇到一件离谱的事,吐槽一下:
自习室的一个座位开学以来一直是我在用,然后这周末自习室(考场)有考试,清场考试,周五同学们都把自己的东西收拾好,腾空了座位。然后周日晚上等考试完后大家就又回来了占座了,我还算快一点的,赶紧回来继续看我一直坐的那个位置,结果好嘛,被我旁边的一对小情侣占了,我和男的说了几句,说这座位开学以来是我在坐,结果人家说上学期就在坐了,行,在时间上你确实赢了,上学期我都没返校。那我看旁边还有空座就坐了(主要是那个位置有插头,可以插电脑),你上学期就在是吧,那你总得毕业吧,等六月份我看你还占着说是你的。
其实你用都无所谓,你好好说一说,旁边有座位,又不是不能用,但是这个男的一整个态度就很恶劣,而且最烦的是这对小情侣来自习室搁那喳喳喳的说个不停就很搞,现在已经三月了,nnd,再忍你们仨月

0 查看评论

Bridge619

1年前

加入十年之约

0 查看评论

Bridge619

1年前

2023-01-12 21:18:50 星期四

GitHub上中国顶尖大学的课程资源共享计划,资源类型非常丰富,含视频、课件、文档、课后习题、实验内容等等。
地址:https://studyhard.cf/

🎓 各大高校留学、保研、考研、就业经验分享
地址:https://nwuzmedoutlook.github.io/career-plan/

0 查看评论

Bridge619

1年前

日子是随风的,留不住的东西太多了,尽力就好。

0 查看评论

Bridge619

1年前

2022-12-08 09:40:14 星期四

始于2019.12.08
止于2022.12.07

应该算是结束了吧

0 查看评论

Bridge619

1年前

2022-11-27 18:12:15 星期日

黎明前

0 查看评论

Bridge619

1年前

2022-11-26 23:03:39 星期六

注定是不平凡的两天

0 查看评论