第二天早上七点,叶南准时醒了过来。
宿舍里另外三个室友还在呼呼大睡,昨晚他们打游戏到凌晨两点,此刻床头还堆着外卖盒子和脏衣服。叶南以前也和他们一样,偶尔逃课,晚上熬夜打游戏,成绩在班里中游徘徊,没什么存在感。
但现在,他的脑海里清晰地浮现出今天的课程表:上午八点半是计算机系的《人工智能导论》,十点二十是《线性代数》,下午两点是《英语听说》。以前他最头疼的就是《人工智能导论》和《线性代数》,尤其是《人工智能导论》的老师李教授,出了名的严格,上课喜欢随机点名提问,答不上来的直接扣平时分。
叶南轻手轻脚地起床,洗漱完毕后,从衣柜里翻出一件还算干净的白T恤和牛仔裤——虽然不贵,但洗得很整洁。他对着镜子照了照,发现自己的眼神和以前不一样了,以前总是带着点怯懦和不自信,现在却很明亮,透着一股笃定的光。
八点十分,叶南提前二十分钟来到了《人工智能导论》的教室。教室里已经来了不少人,大多是三三两两坐在一起聊天、玩手机。叶南找了个靠前的位置坐下——以前他总是坐在最后一排,怕被老师点名,现在他想试试,自己的“最强大脑”到底有多厉害。
他拿出课本,翻开《人工智能导论》的第三章“神经网络与深度学习”。以前他看这一章的时候,光“反向传播算法”就琢磨了一个星期都没搞懂,现在随便扫了一眼,脑海里就自动浮现出算法的原理、推导过程,甚至还有几个优化方案,比课本上讲的还要深入。他试着在草稿纸上推导公式,笔尖划过纸张的速度飞快,思路清晰得可怕,不到十分钟,就把整章的重点难点全弄明白了。
“哟,叶南,今天怎么坐这么靠前?不怕李教授点名啊?”一个调侃的声音传来。
叶南抬头,看见同班的赵磊和两个男生走了过来,赵磊是班里的富二代,平时和张昊玩得不错,以前也经常跟着别人一起嘲笑叶南追刘佳怡的事。
叶南没像以前那样尴尬地低下头,只是淡淡地看了他一眼:“上课坐前面,不是很正常吗?”
赵磊愣了一下,显然没料到叶南会这样回应。以前的叶南,只要被人一调侃,脸就会红,要么沉默,要么小声辩解,从来不会这样平静又带着点疏离的语气。赵磊撇了撇嘴,没再说话,和朋友坐在了叶南后面的位置,还故意和身边的人小声嘀咕:“装什么装,说不定等会儿李教授一点名,就露馅了。”
叶南没理会他们的议论,继续翻看课本。八点半,李教授准时走进教室。李教授今年五十多岁,戴着一副厚眼镜,头发花白,手里拿着一个平板电脑,脸上没什么表情,一上来就开门见山:“上节课我们讲了神经网络的基本结构,今天我们重点讲反向传播算法。在讲新课之前,我先提问几个同学,检查一下大家上节课的掌握情况。”
教室里瞬间安静下来,所有人都低下头,假装看书,生怕被李教授点到。李教授的目光在教室里扫了一圈,最后落在了靠前的位置——准确地说,落在了叶南身上。
“叶南,”李教授推了推眼镜,“你来说说,神经网络中,激活函数的作用是什么?常用的激活函数有哪些?各自的优缺点是什么?”
话音刚落,教室里所有人的目光都集中到了叶南身上,包括后面的赵磊,脸上带着看好戏的表情。谁都知道,叶南上节课差点睡着了,平时作业也是抄的,怎么可能答得上来?
赵磊甚至已经准备好了,等叶南答不上来的时候,就小声和身边的人嘲笑他。
但接下来,叶南的表现让所有人都惊呆了。
叶南站起来,声音清晰、语速平稳,没有丝毫卡顿:“激活函数的核心作用是为神经网络引入非线性因素,否则无论神经网络有多少层,最终都只是一个线性回归模型,无法处理复杂的非线性问题。常用的激活函数主要有四种:第一种是Sigmoid函数,优点是输出值在0到1之间,可用于二分类问题的概率输出,缺点是存在梯度消失问题,在深层网络中表现不佳,且输出不是零均值,会影响梯度下降的效率;第二种是Tanh函数,解决了Sigmoid函数零均值的问题,输出值在-1到1之间,但同样存在梯度消失问题,在输入值较大或较小时,梯度趋近于零;第三种是ReLU函数,优点是计算速度快,在输入为正时梯度恒为1,有效解决了梯度消失问题,缺点是存在‘死亡ReLU’现象,当输入为负时,神经元永久失活;第四种是Leaky ReLU函数,在ReLU的基础上,为负输入值添加了一个很小的斜率,解决了死亡ReLU问题,但超参数需要手动调整,在某些场景下鲁棒性不如ReLU……”
叶南不仅答出了激活函数的作用和种类,还详细分析了每种函数的优缺点,甚至提到了“死亡ReLU”“鲁棒性”这些课本上没有深入讲的知识点,条理清晰,逻辑严谨,比李教授课件上的内容还要全面。
教室里鸦雀无声,所有人都目瞪口呆地看着叶南——这还是那个连作业都要抄的叶南吗?他怎么可能懂这么多?
赵磊脸上的笑意僵住了,嘴巴张得能塞进一个鸡蛋,完全不敢相信自己的耳朵。
李教授也愣了一下,推眼镜的动作顿在半空,他看了看手里的教案,又看了看叶南,眼神里充满了惊讶:“很好,回答得非常全面,甚至超出了课本的范围。那我再问你,针对Sigmoid函数的梯度消失问题,在实际应用中,有哪些解决方案?”
这个问题更难了,属于深度学习的进阶内容,李教授本来是准备在这节课后半段讲的,没想到居然拿来问叶南。
所有人都觉得,叶南这次肯定答不上来了。
但叶南依旧从容不迫:“主要有三种解决方案。第一,使用残差网络(ResNet),通过shortcut连接,让梯度可以直接从后层传到前层,避免梯度在深层传播中逐渐衰减;第二,使用
喜欢觉醒后,校花哭着说爱我请大家收藏:(m.x33yq.org)觉醒后,校花哭着说爱我33言情更新速度全网最快。