#xin读研日记# 研究生第69天
【今日状态C】前向神经网络模型,单一人工神经元定义了模拟生物神经元的动态行为方程y',假设y'=0,那么神经元的Net 是y的反函数,我们用tanh函数来代替。当神经元输出为连续状态时,单一神经元可以作为简单的神经控制器进行参数自适应控制,如传统的PID调节器可以通过调节神经元的连接权系数达到PID参数的自适应。单层神经元跟单个神经元无有差别,只是变成了多输出。多层神经网络在输入层和输出层之间加了隐藏层,输出层可以为全部为线性单元但隐藏层必须包含至少一个非线性单元;多层盛神经元网络中隐藏层的非线性特性比输出层要严重的多。收到了网课证书,虽然学的现在都忘了
【今日状态C】前向神经网络模型,单一人工神经元定义了模拟生物神经元的动态行为方程y',假设y'=0,那么神经元的Net 是y的反函数,我们用tanh函数来代替。当神经元输出为连续状态时,单一神经元可以作为简单的神经控制器进行参数自适应控制,如传统的PID调节器可以通过调节神经元的连接权系数达到PID参数的自适应。单层神经元跟单个神经元无有差别,只是变成了多输出。多层神经网络在输入层和输出层之间加了隐藏层,输出层可以为全部为线性单元但隐藏层必须包含至少一个非线性单元;多层盛神经元网络中隐藏层的非线性特性比输出层要严重的多。收到了网课证书,虽然学的现在都忘了
[费解]最近答疑出频率比较高的一道题目,关于二重积分计算的,详见下面图一
[求饶]大家疑惑的点在于分段函数第一段,f(x,y)=x^2 当|x|+|y|<=1时,为什么计算二重积分时转换成4倍的第一象限的累次积分,疑惑点在于4倍
[awsl]这里用到的就是积分区域对称的情况下,被积函数的“偶倍奇零”,具体解释看下图二
[小红花]这里的4倍由来可以这么理解:
[打call]1)首先积分区域是关于y轴对称的,那我们看f(x,y)关于x的奇偶性,因为f(x,y)=x^2,f(-x,y)=f(x,y),f(x,y)关于x是偶函数,这里可以转换成2倍的x右半轴的积分区域;
[打call]2)继续看x轴右半部分区域,这个区域是关于x轴对称,根据下面图片,积分区域关于x轴对称,我们需要找f(x,y)关于y的奇偶性,因为f(x,y)=x^2,f(x,-y)=f(x,y),f(x,y)关于y是偶函数,所以在第1)步2倍的基础上在乘以2,最终就转换成第一象限的4倍的累次积分啦
[求饶]大家疑惑的点在于分段函数第一段,f(x,y)=x^2 当|x|+|y|<=1时,为什么计算二重积分时转换成4倍的第一象限的累次积分,疑惑点在于4倍
[awsl]这里用到的就是积分区域对称的情况下,被积函数的“偶倍奇零”,具体解释看下图二
[小红花]这里的4倍由来可以这么理解:
[打call]1)首先积分区域是关于y轴对称的,那我们看f(x,y)关于x的奇偶性,因为f(x,y)=x^2,f(-x,y)=f(x,y),f(x,y)关于x是偶函数,这里可以转换成2倍的x右半轴的积分区域;
[打call]2)继续看x轴右半部分区域,这个区域是关于x轴对称,根据下面图片,积分区域关于x轴对称,我们需要找f(x,y)关于y的奇偶性,因为f(x,y)=x^2,f(x,-y)=f(x,y),f(x,y)关于y是偶函数,所以在第1)步2倍的基础上在乘以2,最终就转换成第一象限的4倍的累次积分啦
今天是2021年10月30日
距离考研还有5⃣ 6⃣ 天
知识学的不够扎实 稍微灵活一点就不会
就像图中,当被积函数只含有y时(垂直于y轴截面,该面积如图),没有与被积函数只含z联系起来
还有英语阅读的复盘
看了视频跟没看一个样的原因无非就是 知行不合一
满足于这个选项的对错 而没有研究这一类的题型 把文章读个大概 把词组抄下来 但并没有去研究选项背后的含义
距离考研还有5⃣ 6⃣ 天
知识学的不够扎实 稍微灵活一点就不会
就像图中,当被积函数只含有y时(垂直于y轴截面,该面积如图),没有与被积函数只含z联系起来
还有英语阅读的复盘
看了视频跟没看一个样的原因无非就是 知行不合一
满足于这个选项的对错 而没有研究这一类的题型 把文章读个大概 把词组抄下来 但并没有去研究选项背后的含义
✋热门推荐