馮 蘭
(重慶交通大學 外國語學院, 重慶 400074)
眾所周知,雅思考試(IELTS: International English Language Testing)由劍橋大學考試委員會、英國文化協(xié)會及澳大利亞教育國際開發(fā)署共同舉辦,專為擬進入以英語為教學語言的歐美院校進行深造的學生和移民至以英語為母語(或官方語言)的國家的人士進行英語水平測試而設立的國際化考試體系,考試分學術類(Academic)和移民類(General training)兩種,考試內(nèi)容包括聽力、閱讀、寫作和口語四個部分,是當今世界最負盛名的考試之一。自1990年4月雅思在中國推廣以來,每年數(shù)百萬考生報名參考,其中相當一部分是計劃本科畢業(yè)后出國留學的在校大學生,規(guī)模和數(shù)量之大可見一斑。
相對雅思而言,華威英語語言測試(WELT: Warwick English Language Test)晚于雅思進入中國(2008年)。華威英語語言測試于1980年由英國著名大學華威大學創(chuàng)辦,由英國考試委員會語言專家設計考試題目,華威英語語言測試因其設計的科學性和嚴謹性,成為除雅思、托??荚囃獗挥髮W廣泛認可的權威性考試。華威英語語言測試(WELT)考試時長2小時45分鐘,考試題型分語法、寫作、閱讀三部分。針對不同的考試對象,華威英語語言測分為G類(code G)和FP類(code F)。前者針對申請攻讀大學本科課程和碩士研究生課程的考生,針對適用于大學預科學生。
閱讀測試是雅思和華威及其它英語測試的重要組成部分。根據(jù)筆者統(tǒng)計,在1994—2011年之間,中國知網(wǎng)數(shù)據(jù)庫中分析、研究兩種考試的文章達300多篇,但卻鮮見對兩種語言測試進行對比研究的文章,而專門針對兩類考試中同一題型進行對比研究的文章更是少見。因此,本文擬對雅思考試學術類與華威語言測試G類中的閱讀測試部分進行比較。
語言學術界對語言測試進行了不同類型的分類。Valette(1977)將語言測試分為四類:學能測試(aptitude test)、階段成績考試(progress test)、成績測試(achievement test)和水平測試(proficiency test)。其中,學能測試細又分為分班測試(placement test)和診斷性測試(diagnostic test)(Harrison,1983; Alderson et al,1995)。按上述標準劃分,雅思和華威屬于水平測試。同時,雅思和華威也屬于尺度參照性考試(criterion-referenced assessments),二者參照一定的尺度對學生進行考核。學生的成績不是通過與其他考生的比較,而是通過與某種特定的尺度進行比較而得到體現(xiàn),學生的成績必須達到某一特定尺度方能及格。這種特定尺度的選擇或制定是尺度參照考試的關鍵(楊惠中、金艷,2001)。在成績的評判上,雅思和華威采用不同的評分方式對考生的語言能力進行評判:雅思采取分數(shù)制(4.5~9.0分),華威實行ABCD制。
表1 雅思、華威考試分數(shù)對照表
從表1可以看出,雅思成績分為八個等級,最低分4.5分,最高分9.0分,最終提供給考生的成績?yōu)楦黜?聽力、閱讀、寫作、口語)得分總和的平均值。華威的計分方式則是針對考試的三種題型(語法、寫作、閱讀)分別給出等級(每項得分分為ABCD四個等級),三部分匯集在一起則為其最終成績。表1還顯示,雅思得分等級離散度大,反映考生個體差異更清楚。因此,雅思更能體現(xiàn)考生個體間成績的差異。華威語言測試雖能反映考生在語言各方面的強項和弱項,但等級離散度小,難以區(qū)分個體間語言能力的差異。著名語言測試家Heaton(1991)認為,英語測試的發(fā)展趨勢是使用數(shù)字來評定評分等級,以此區(qū)分成績離散度。由此看來,雅思的評分體系較華威評分體系更科學合理。
下文將采用雅思和華威語言測試官方網(wǎng)站所提供的考試樣卷作為數(shù)據(jù)分析樣本。雅思和華威中的閱讀部分測試時間相當,要求在一個小時內(nèi)完成三篇學術類小散文的閱讀和答題。
Harrison(1983)認為表面效度指試卷表面形式的可信度和公眾對考試的接受程度。同時表面效度也體現(xiàn)為一種文本表現(xiàn)形式(Cumming and Berwick,1995:p3)。文本形式分為線性文本和非線性文本兩種。線性文本以純語言形式,即語句和段落來表達文本思想,非線性文本則在純語言文本的基礎上,通過穿插標題(或小標題)、前言、表格、圖表等形式表達文本主題(Nuttall2002:p45)。筆者通過對2012年1至3月雅思和華威官方網(wǎng)站上各自三套測試真題的分析和研究得出以下數(shù)據(jù)。
表2 雅思閱讀中非線性文本類型
表2顯示,雅思閱讀文本屬典型的非線性文本。三篇閱讀文本中文章標題占57%,圖表占30%,節(jié)標題占13%。相反,華威閱讀試題從頭至尾使用Times New Roman字體格式,中間沒有任何變化,字體格式嚴肅、正式,從視覺上給讀者以學術化氛圍的濃厚感覺 (Sanchez,2003)。而雅思閱讀文本從形式上看,文字顏色有深有淺,文本中既有表格又有圖片,形式豐富多樣,表面效度更趨明顯。由此可見,雅思閱讀測試表面效度高于華威。
表3 文本的定量比較
表4 易讀性對照表(Source-Michigan English Language Test Battery, 1996)
筆者對2012年1月雅思和華威兩套試題中六篇閱讀文章進行了對比分析。從表3看出,雅思考試的文章長度在635~1 065之間,而華威考試的文章長度非常一致,每篇都是650詞。相反,雅思的三篇文本長度由長至短,詞數(shù)依次遞減。在易讀性方面,表3表明,雅思考試的難度系數(shù)在33.58~40.38之間,屬于“難”范疇(參見表4)。華威考試在難易程度安排的順序上體現(xiàn)了以下規(guī)律:第一篇和第三篇難度系數(shù)分別為56.83和53.43,屬于“較難”范疇,第二篇為27.74,屬于“非常難”范疇。通過表4得知,易讀性分數(shù)越低,閱讀文章的難度就越高。華威測試的這種設計方式能否真正測試讀者的閱讀能力有待我們進一步思考。
語言學家Armstrong(1980)曾做過一項實驗,分析高等院校管理學專業(yè)期刊雜志的易讀性。實驗結果表明(參見表5),在分析樣本中,一本期刊易讀性為54.3,屬于“較難”范疇,三本期刊介于20.2~29.4之間,屬于“非常難”范疇,七本期刊介于31.7~46之間,屬于“難”范疇。由此可見,63%的高等院校學術期刊屬于“難”這一范疇,只有10%屬于“較難”范疇和27%屬于“非常難”范疇,而雅思考試的難易度都均屬“難”的范疇。通過對比可以看出,雅思考試的文章難易度基本符合高等院校專業(yè)學習中的文本難易度,而華威考試的第一和第三篇不能完全反映學術文章的復雜性。
表5 管理學專業(yè)期刊易讀性
考試文本的真實性是反映文本內(nèi)容可信性的重要標準??荚嚨恼鎸嵭园瑴y試材料真實性和測試任務的真實性,要求測試應盡可能地復制出現(xiàn)實生活中語言使用的各種特征(Bachman,1995)。其中測試材料的真實性指測試中的閱讀文章是否直接來源于現(xiàn)實生活中的文本素材,如報紙、雜志、互聯(lián)網(wǎng)等,而不是指為了某一測試目的而專門杜撰和編寫的閱讀文章。華威閱讀文本皆標注了來源,但雅思閱讀文本更像專為考生撰寫的學術文章,未提供出處來源。相比之下,華威考試更具真實性。
除文本材料的真實性外,閱讀文本主題也是值得關注的重要因素。主題是閱讀材料所表達的主要思想,對主題的分析可以幫助讀者發(fā)現(xiàn)閱讀材料話題所覆蓋的范圍是否寬廣,是否帶有命題者的主觀偏向。
表6 雅思閱讀測試主題統(tǒng)計
筆者選擇雅思和華威考試2012年1至4月考題中的閱讀文本素材進行了對比分析。從表6看出,雅思閱讀主題包含自然科學類、人文社科和科技類,范圍較廣,具有較大的覆蓋性。華威閱讀主題主要集中在生態(tài)學和環(huán)境學兩個方面,涉及面較窄。一般而言,任何一種語言閱讀測試的主題設計不應僅給熟悉某一領域的考生提供便利Alderson (2000),更應充分考慮內(nèi)容圖式(content schemata)給考生帶來的影響Cohen (1994)。顯而易見,雅思考試在文本主題選擇上充分考慮了大眾考生的學科背景。
表7是筆者對雅思和華威2012年1月的兩套閱讀考題做出的分類統(tǒng)計。
表7 閱讀理解任務分類統(tǒng)計
表7顯示,雅思和華威考試的測試題型和題目數(shù)量存在較大差距。雅思考試的閱讀題型包括多項選擇、配對、正誤判斷、選擇四種,華威考試只包括簡答和多項選擇兩種。在華威閱讀試題中,1至5題測試考生的精讀技巧,考查考生查詢文本具體信息的能力,其余25題為多項選擇題。雖然多項選擇題具有評分信度高、實施容易 (Weir 1990),且可用來測試考生辨認事實細節(jié)、因果關系、邏輯推理、正誤判斷和辨別區(qū)分能力的優(yōu)點(劉建達,1994),但其缺點也較明顯:利于作弊、猜測幾率高、負向反撥大、結構效度低 (Hughes,1989:p60-62; Alderson, 2000:p211-212; Heaton, 2000:p27)。
雅思考試大量采用匹配題(占60%)和正誤判斷題(占20%),多項選擇題只占總量的12.5%(見表7)。雅思考試采用標題段落匹配題不但能考查考生對語篇的宏觀概括能力,而且能考察考生獲取具體信息的能力。正誤判斷題的優(yōu)點在于語篇選擇和命題容易,能考查考生多個層次的閱讀能力(Heaton, 2000:p114)。為避免考生在答題過程中50%對50%的猜測概率發(fā)生,雅思專門設計了“未提及”這一題型。這一題型對于大多數(shù)中國學生而言,往往容易混淆“錯誤”和“未提及”這兩個概念。因此,這對測試學生的閱讀理解能力具有極大的效度。
在閱讀題目的數(shù)量上,兩者之間也存在一定差異,雅思為40題,華威為30題。任平、但武鋼(2009)認為,當閱讀測試題目數(shù)量達到50時,信度為0.7,當題目增加至75時,信度能提高到0.78。題數(shù)達到50以后,隨著題數(shù)的增加,信度雖有上升,但上升幅度會愈來愈小。由此可見,雅思閱讀試題信度接近0.7,華威則低于0.7。因此,雅思閱讀無論在效度還是信度方面都大于華威。
在語言測試中,除閱讀材料應具有真實性外,閱讀理解任務也應具有真實性。語言學家Bachman(1995) 曾對“真實性”做出如下定義:“考生所承擔的任務應該是現(xiàn)實生活中相互作用的交際活動,而不是對考官的刺激做出的典型的、例行的考試反應。”在華威考試中,閱讀理解任務的真實性得到了體現(xiàn)。表7還顯示,在考查學生對銜接手段和文章體裁的識別方面,17、27題兩題側(cè)重對承上啟下的寫作方法進行考查,而21、29、30題則側(cè)重考查考生對不同體裁文章修辭手法的了解。相比之下,雅思則主要關注考生對閱讀技巧的使用。因此,華威考試的閱讀理解任務比雅思更具真實性。
通過對雅思、華威兩類考試中閱讀測試部分的對比分析,我們清晰地發(fā)現(xiàn),雅思閱讀素材為非線性文本,華威為線性文本;雅思選材廣泛、題目數(shù)量多、題型多樣,但文本材料和閱讀理解任務缺乏真實性;華威閱讀文本雖素材真實,皆有文本來源,但閱讀素材來源狹窄,題型單一,題數(shù)偏少,難度系數(shù)低。從整體上看,雅思閱讀測試部分在信度和效度上高于華威。筆者認為,雅思、華威雖各有其優(yōu)缺點,但都有相互借鑒、相互改進的空間:雅思在采用非線性閱讀文本的同時,亦需進一步加強考試材料和閱讀理解任務的真實性;華威在難易梯度設計、文本主題多元化方面尚存不足,還有一定的改進空間。
[參考文獻]
[1]ALDERSON, J.C., CLAPHAM, C. and WALL, D. Language Test Construction and Evaluation[M]. Cambridge: Cambridge University Press , 1995.
[2]ALDERSON, J.C. Assessing Reading[M]. Cambridge: Cambridge University Press, 2000.
[3]ALDERSON, J.C. Testing in EAP: Progress? Achievement? Proficiency? In G.M. BLUE, J. MILTON, and J. SAVILLE eds. Assessing English for Academic Purposes[M]. Switzerland: Peter Lang AG, , 2000:21-48.
[4]ANON, English Proficiency Test Preparation [EB/OL],2000. http://www.apc.edu.au/TestPrep.html. (Accessed 18th December 2003).
[5]ANON, A-Z of Methodology [EB/OL], 2000. http://uk.cambridge.org/elt/ces/methodology/skimmingscanning.htm. (Accessed 1st January 2004).
[6]ANON, No date, The Fog Index and Readability Formulas [online]. Available from: http://www.klariti.com/plain-english/Fog-Index-Readability-Formulas.html. (Accessed 24thDecember 2003).
[7]ARMSTRONG, J.S. Unintelligible Management Research and Academic Prestige[J]. Interfaces, 1980,10 (2) :80-86
[8]BACHMAN, L.F., DAVIDSON, F., RYAN, K., CHOI, I.C. An Investigation into the Comparability of Two Tests of English as a Foreign Language-The Cambridge-TOEFL Comparability Study[M]. Cambridge: Cambridge University Press, 1995.
[9]BACHMAN, L.F. and PALMER, A.S. Language Testing in Practice[M]. Oxford: Oxford University Press, 1996.
[10]CAMBRIDGE, IELTS 3 Examination Papers from the University of Cambridge Local Examinations Syndicate[M]. Cambridge: Cambridge University Press, 2002.
[11]Carrell, P. L. Some issues in studying the role of schemata, or back-ground know ledge, in second language comprehension [ J ]. Reading in a Foreign Language, 1983, 1 (2): 81-92.
[12]COHEN, A.D. Assessing Language Ability in the Classroom[M]. 2nded. USA: Heinle & Heinle Publishers, 1994.
[13]CUMMING, A., and BERWICK, R. Validation in Language Testing[M]. Avon: Multilingual Matters, 1995.
[14]DAVIES, A. Principles of Language Testing[M]. Oxford: Basil Blackwell, 1990.
[15]EUROPEAN ASSOCIATION FOR INTERNATIONAL EDUCATION, Proficiency in Second Language as a Critical Factor for Success: The Perspective of an international Test Maker, Educational Testing Service (ETS) [EB/OL]. 2002. http://www.eaie.org/pdf/conf2002/706.pdf. (Accessed 17th December 2003).
[16]Gough, P. B. One second a reading [C]// E J Kavanagh & C. Mattingly. Language by Ear and Eye. Cambridge, MA: MIT Press; 1972:331-358.
[17]HARRISON, A. A Language Testing Handbook[M]. London: The MacMillan Press Limited, 1983.
[18]HEATON, J.B. Writing English Language Tests[M]. New Edition. Harlow: Longman, 1991.
[19]Heaton, J. B. Writing English Language Tests[M]. Beijing: Foreign Language Teaching and Research Press, 2000.
[20]HENNING, G. A Guide to Language Testing[M]. Massachusetts: Newbury House Publishers, 1987.
[21]Hughes, A. Testing for Language Teachers[ M ]. Cambridge: Cam bridge University Press, 1989.
[22]MICHIGAN ENGLISH LANGUAGE BATTERY, MELAB Technical Manual[M]. Michigan: University of Michigan, 1996.
[23]MITCHELL, R, Lecture Notes-Week 6 Assessment of Language Proficiency[M]. MAALLT, Southampton University, 2003.
[24]Nuttall, C. Teaching reading skills in a foreign language[M]. Shanghai: Shanghai Foreign Language Education Press, 2002.
[25]Rumelhart, D. E. Toward an interactive model o f reading [ C ]// S. Dornic. Attention and Performance. New York: Academic Press, 1977, 6: 573-603.
[26]SANCHEZ, M. Web-Safe Fonts for your Site [EB/OL], 2003. http://www.webpromotionguru.com/articles/s329.shtml (Accessed 24th December 2003).
[27]SPENCE-BROWN, R., No date, The real world and the language tester: considerations of authenticity and interactiveness in the design and assessment of language tests[EB/OL]. http://202.245.103.49/kenshu/Rs/robyn.htm (Accessed 24th December 2003).
[28]Smith, F Understanding Reading [M]. New York, NY: Holt, Rinehart and Winston, 1971.
[29]UNIVERSITY OF WARWICK, Warwick English Language Test [EB/OL], 2003. http://www.warwick.ac.uk/fac/soc/CELTE/products/welt/index.shtml. (Accessed 14th December 2003).
[30]VALETTE, R.M. Modern Language Testing[M]. 2ndEd. USA: Harcourt Brace Javanovich Inc , 1977.
[31]Weir, C. J. Communicative Language Testing [M]. Prentice H all International ( UK) Ltd. , 1990.
[32]Weir, C. J. & H. Khalifa. A cognitive processing approach towards defining reading comprehension [J].Cam bridge ESOL: RESEARCH NOTES, 2008, 31: 2-10.
[33]任平,但武剛.六級閱讀的雅思化改革對其閱讀試題設計的啟示[J].中國電力教育,2009(9):195-196.
[34]劉建達. 測試方法對閱讀測試的影響[ D ]. 廣州: 廣東外語外貿(mào)大學碩士學位論文, 1994.
[35]楊惠中,金艷. 大學英語四、六級考試分數(shù)解釋[J].外語界,2001(1).