楊榮根,陳維娜,楊 忠
(金陵科技學院 智能科學與控制工程學院,江蘇 南京 211169)
教育分為基礎教育和高等教育(專業(yè)教育),通過高考將基礎教育中綜合能力比較強、能夠勝任更加復雜的專業(yè)學習的學生選拔出來,參加更高一階的專業(yè)學習。無論從教育的類型說,還是從受眾的對象來說,專業(yè)教學的性質(zhì)都發(fā)生了改變,研究和探討更加適合專業(yè)教學的方法非常必要。好的教學方法能夠幫助學生建立系統(tǒng)觀,將零散的知識串聯(lián)起來,建立系統(tǒng)化知識體系,事半功倍[1-3]。
專業(yè)教學的成敗事關人才培養(yǎng)質(zhì)量的高低,所幸專業(yè)教學是可以把控的,因為專業(yè)教學也是由一門門專業(yè)課程元素構(gòu)成的。針對每一門專業(yè)課程的特點,選擇合理的教學方法,組織好每一門專業(yè)課程的教學,自然會提高專業(yè)教學的質(zhì)量。一般而言,專業(yè)教學方法分為自頂向下、自底向上和專題式的教學方法。
人工智能專業(yè)是2018年4月設立的專業(yè),旨在推動人工智能一級學科建設,培養(yǎng)我國人工智能產(chǎn)業(yè)的應用型人才[4-6]。機器學習是人工智能的一種方法和手段,目標是模擬或?qū)崿F(xiàn)人類的學習行為,從紛繁復雜的數(shù)據(jù)中獲取新的知識或技能,是一門新興的交叉學科,涉及概率論、統(tǒng)計學、逼近論、凸分析、算法復雜度理論等。機器學習基礎是人工智能專業(yè)的一門專業(yè)基礎課,對于這樣一門新興專業(yè)課程,涉及的內(nèi)容如此之多,使得教學方法的選擇顯得尤其重要[7-10]。
自頂向下教學法是一種站在一定高度俯瞰式的教學,也可以看作是演繹式教學。這是應用最普遍的一種方法,例如高等數(shù)學中,先給出一般性的定理、結(jié)論,然后在這些定理成立的前提下推導出解題方法,最后在實際應用中將實際問題轉(zhuǎn)化成適用這種定理使用的場景,解決實際問題[11-13]。
自底向上教學法是先給出一類具體問題的實現(xiàn)細節(jié),一步步引導建立這類問題的概念模型,進一步抽象形成解決這類問題的理論模型。這種方法在專業(yè)教學中應用不是很廣,但是在局部小范圍可以嘗試[14-15]。
需要指出的是,具有計算機科學與技術背景的人可能會聯(lián)系到計算機網(wǎng)絡教學中也有自頂向下和自底向上的教學方法,但那是針對計算機網(wǎng)絡協(xié)議的層次模型的高低之分,協(xié)議的層次越高越接近應用,越低則越接近物理實現(xiàn)。所以網(wǎng)絡的自頂向下和自底向上與這里的教學方法是有區(qū)別的。
專題式教學法是在給定的專題基礎上,講述與這個專題有關的所有聯(lián)系的知識,形成一個封閉的小系統(tǒng)。本文將重點討論專題式教學法在機器學習基礎教學過程中的應用。
機器學習基礎的傳統(tǒng)的教學過程是一種典型的自頂向下的教學方法,將與機器學習有關的所有數(shù)學理論作為一章,先行講解,接下來介紹各種機器學習框架。對于具有一定基礎的工程人員來講這可能是一件很自然的事情,但是在本科生教學實踐中,會有這樣一些問題出現(xiàn)。在講授第一章數(shù)學基礎時,由于數(shù)學基礎涉及統(tǒng)計概率、數(shù)學分析、矩陣論、最優(yōu)化至少4門學課,所以所花的時間也不少,學生會有各種各樣的困惑,有的學生會反問,難道機器學習基礎就是讓我們把數(shù)學重新復習一遍嗎?有的學生會這樣想,這么多的數(shù)學難道機器學習基礎都用得上嗎?其實這些數(shù)學都是用得上的,只不過學生還不知道即將用在什么地方,所以會產(chǎn)生這樣的疑慮,后面講到真正需要使用某一點數(shù)學的地方已經(jīng)聯(lián)想不起來了。專題式教學中則不會首先羅列一堆數(shù)學基礎,而是以一個專題為單位,從具體問題的背景出發(fā),建立理論模型,到理論推導,再到一類問題的解決,形成一個閉環(huán)體系。
線性回歸模型是機器學習基礎中最具有代表性、最簡單的機器學習框架,教授好這個框架會起到以點帶面的效果。下面就結(jié)合專題式教學法講授其教學過程。
為了直觀地驗證中心極限定理,可以利用一門編程語言,這里利用Python模擬1 000個均勻分布的隨機變量的和的分布情況,結(jié)果顯示如圖1所示。圖1(a)是一個[0,1]均勻分布隨機變量;圖1(b)是1 000個這種均勻分布隨機變量的和的分布,可以直觀地看出,其為正態(tài)分布的曲線圖。
J(θ)取最小值時對應的θ就是所要求的值。為了求到這個值,有相應算法,使用最普遍的就是梯度下降算法。這里不再展開該算法本身的教學探討。至此,線性回歸模型的框架已經(jīng)建立,也就是從線性模型出發(fā),尋找誤差項的估計,利用中心極限定理,推導誤差項的分布,得到每個樣本的似然概率。根據(jù)樣本的獨立同分布的特性,得到樣本集的聯(lián)合分布,也就是θ的似然函數(shù),最后線性回歸模型的損失函數(shù)就悄悄浮出水面,推導過程自成一體,渾然天成。
這種專題式教學方法,針對一個專題講授與之相關的所有知識點和過程,非常符合當下的快節(jié)奏的學習方式,學生有強烈的所見即所得的體驗和獲得感。以線性回歸模型這樣一個簡單的框架教學為例,傳統(tǒng)的方法一般是直接給出損失函數(shù),然后求解。雖然這個損失函數(shù)看似直觀,但是背后的統(tǒng)計規(guī)律卻沒有講清楚,學生聽完不能以點帶面,利用數(shù)學分布去思考其他模型。
專題式教學的第二個優(yōu)勢是現(xiàn)講現(xiàn)用,知識的前后聯(lián)系更加緊密,如果是自頂向下方法就是首先介紹數(shù)學分布、似然函數(shù)、中心極限定理等這樣的數(shù)學基礎,然后再講線性模型。在沒有講到具體使用的地方,學生往往心生疑惑,究竟哪里能夠用得上,甚至不知所謂。而專題式教學則避免這種情況發(fā)生,反而是讓知識相互驗證,印象更加深刻。均勻分布隨機變量的和的分布Python代碼如下:
專題式教學的第三個優(yōu)勢是讓內(nèi)容更加豐富多彩,機器學習模型中有很多數(shù)學推導,如果僅僅是過程推導會讓教學變得枯燥,索然無味,如果配合相關的實踐和圖形展示,會讓結(jié)果變得一目了然。在以上的線性模型的誤差的分布估計時所講的中心極限定理,可以用Python代碼進行驗證,結(jié)果顯而易見,消除了公式的陌生感,而且也學會了一點兒程序?qū)嵺`,讓過程推導變得圖文并茂。
高等學校的專業(yè)教學非常重要,傳統(tǒng)的教學方法有演繹式的自頂向下教學和歸納式的自底向上教學方法。本文著重探討了專題式的教學方法,針對一個專題講述與該專題有關的所有關聯(lián)的知識,不需要前面大量的鋪墊,在應用場景中現(xiàn)講現(xiàn)用。這樣做有顯著的特點,即非常適合當下快節(jié)奏的學習,知識的前后聯(lián)系更加緊密,容易理清來龍去脈,內(nèi)容充實豐富;并且論證了該方法在機器學習基礎教學中的應用,效果良好,受到學生好評。