曉毅
人工智能研究公司OpenAI聯(lián)合創(chuàng)始人兼首席執(zhí)行官薩姆·奧爾特曼(Sam Altman)近日在美國麻省理工學(xué)院“想象力行動”活動上談及大語言模型(編者注:大語言模型是指使用大量文本數(shù)據(jù)訓(xùn)練的深度學(xué)習(xí)模型,可生成自然語言文本或理解語言文本的含義,處理多種如文本分類、問答、對話等自然語言任務(wù))的發(fā)展趨勢和安全問題。
奧爾特曼認為,如今我們正在接近大語言模型規(guī)模的極限,規(guī)模越大并不一定意味著模型越好,有時候可能只是為了追求數(shù)字。大語言模型的規(guī)模不再是衡量質(zhì)量的重要指標(biāo),未來將有更多的方式來提升模型的能力和效用。OpenAI的目標(biāo),是為世界提供最有能力、最有用、最安全的模型,而不是為了參數(shù)數(shù)量而自我陶醉。
此外,奧爾特曼還在活動上對此前一封要求OpenAI 暫停開發(fā)人工智能產(chǎn)品的公開信做出了回應(yīng),他同意能力越強大,安全標(biāo)準(zhǔn)也必須越高的前提,并透露OpenAI在發(fā)布GPT-4之前花費了6個月以上的時間研究安全問題,并邀請外部審計機構(gòu)測試現(xiàn)有模型。他總結(jié)道,“我同意,隨著產(chǎn)品的能力越來越強,安全標(biāo)準(zhǔn)必須提高,我們在研發(fā)GPT-4的基礎(chǔ)上也對各種安全問題采取了非常謹慎的態(tài)度,但我認為公開信中提及的暫停研發(fā)并非解決安全問題的最佳方法。”