??Boboshko-Studio / Shutterstock
(資料圖片)
利維坦按:
這波由ChatGPT引發的AI爭論之所以如此火熱,很大一部分原因是因為它再次掀起了語言領域的“恐怖谷效應”。就像曾經的硅膠高仿真人偶以及AI棋手AlphaGo。機器人長得跟人一模一樣了;機器人聰明到打敗人類最強棋手了;機器人會“說人話”了。而我們最為恐懼的是被取代的可能性,當ChatGPT展現出從未有過的語言能力,當我們無法分清一句話究竟來自碳基還是硅基,這種恐懼就會充分膨脹。往好了說,它或許真的能跟樂觀派所希冀的那樣給社會帶來諸多便利;往壞了說,它的確也有可能是那個最壞結局的預兆,但類似的事情顯然不是第一次。
計算機和信息技術曾被贊為“對教育領域的革新”,它們帶來的好處是實實在在的,給學生提供的信息量遠遠超過了課本。它們讓教學資源更加靈活,能夠滿足個人需求,并促使學生、家長和教師之間的互動更為便捷高效。在疫情隔離期間,如果沒有網絡課程,學校恐怕做不了多少事情。
AI聊天機器人和大型語言模型的問世帶來了更多機會。美國人工智能研究實驗室OpenAI開發的ChatGPT(一種人工智能技術驅動的自然語言處理工具,譯者注)已于2022年11月上線,這一工具可以給學生提供練習題、答案以及反饋,還能檢查作業,從而減輕教師的負擔。
相較于谷歌給出的含糊不清、一團亂麻般的海量信息,ChatGPT的可互動性更受學生的歡迎,并可以解決更具體的問題。
??Medpage Today
算法無法理解“愛”和“擁抱”在語義上是存在聯系的。
但是根據英國謝菲爾德大學數字素養專業教授詹妮弗·羅塞爾(Jennifer Rowsell)所說,大型語言模型也讓英語教師憂心忡忡。犯懶的學生利用ChatGPT輕輕松松就能寫出一篇像樣的論文。ChatGPT并不只是從網絡上搜尋、復制一篇文章,而是重寫——如果你想,還能給你無數篇,直到你滿意為止。有些教師坦言,ChatGPT寫出來的東西通常能得不錯的分數。
發表于《紐約時報》(New York Times)的一篇文章稱[1],一位大學教授證實曾發現一個學生用ChatGPT寫的哲學論文是班上質量最好的。高中人文教師丹尼爾·赫爾曼(Daniel Herman)寫的一篇文章發表于《大西洋月刊》(The Atlantic),他在此文中稱:“我以及成千上萬教師、教授、輔導員和管理人員的生活將發生翻天覆地的變化。”他認為ChatGPT會對現有教育體系造成巨大影響。
學校已經展開了“保衛戰”。紐約教育部門計劃在公立學校禁用ChatGPT,但這也阻止不了學生在家中使用。一所公立學校的社會學科課程教師丹·盧爾(Dan Lewer)在TikTok上建議,教師應該要求在家中上傳作業的學生同時也要提供一段短視頻,重述自己的文章論點和論據。盧爾表示,這能確保“他們真的學進去了,而不是隨便在網上找點東西敷衍了事”。
作弊學生的好朋友?給ChatGPT 一點論文提示詞,比如瑪麗·雪萊(Mary Shelley)的《弗蘭肯斯坦》(Frankenstein)如何影響了科幻中的女性主義書寫,它就會給學生提供一些至少可稱得上是頭緒的東西。如果繼續互動,你就能用它輸出的文字完成這篇論文了。
OpenAI的研究人員正在著手給ChatGPT產出的內容加上水印,比如讓它選擇帶有隱藏數字簽名的詞語。至于這一方法是否有效,為此煩惱不已的教師是否能輕松檢查完一整個班級的論文,我們不得而知——而且學生可能會通過運行其他語言學習軟件改寫ChatGPT生成的內容。在這場教師和企圖作弊的學生之間的較量中,教師可能無法掌控全局。有些人已經斷言,課外論文作業已經失去意義了。
然而,ChatGPT帶來的棘手問題并不局限于作弊。
AI不需要任何真情實感或者理解能力就能制造出比許多學生寫得更好的論文,這一事實應該引起反思:什么才是教師一開始想教給學生的。
赫爾曼表示,他認為教師現在面臨的問題不再是青少年是否需要學好寫作這一基本技能,而是“這樣教寫作還有價值嗎”?
ChatGPT能夠產出超出一般水平的論文,不是因為聰明,而是因為得出答案的路徑已被定義好,當然,這也不是說這些工具就不厲害了。但這是件好事嗎?羅塞爾說,許多教育專家早就覺得有必要改變現有教授英文的方式,但她表示:“老師們發現變革我們熟悉已久的教學方式非常困難。如果不這樣教,我們也不知道要怎樣教。”
語言AI可能會大大凸顯這一問題。羅塞爾提及:“科技突飛猛進,而我們這些(讀寫教育)老師并不知道怎么迎頭趕上。不過我們已經了解到,不要與新事物對抗,而是學會理解與合作。傳統的論文寫作和ChatGPT并非是魚和熊掌不可兼得的關系。也許這能推動我們教育方法的變革。”
如果是這樣,我們應當先考慮語言的作用是什么。
從AI發展的早期開始,能夠運用自然語言互動的算法就已存在。麻省理工學院的計算機科學家約瑟夫·魏森鮑姆(Joseph Weizenbaum)提及,20世紀60年代,他的同事在和叫作伊萊扎(Eliza)的程序交流時被氣得七竅生煙,同事以為這個交互對象是魏森鮑姆假扮的——并且還是處于懟人狀態的魏森鮑姆。
??John Maeda"s Blog
像伊萊扎這樣粗糙的語言程序都能愚弄使用者的事實表明,我們素來就容易把人和機器搞混。甚至直到最近,處理語言的算法制造出的都不過是毫無邏輯、充滿語言錯誤的短語。不過,隨著技術進步——計算機能力的指數級增長、2015年左右出現的深度學習算法、不斷擴張的網絡數據庫,機器已經能夠制造出幾無差錯的句法規則,其模仿人類智識的程度令人不安。
ChatGPT是一個破局者,它可以表演各種各樣的戲法,比如融合不同資料和風格,以《欽定版圣經》的風格寫一份英式魚派的菜譜,或是就艾伯特·愛因斯坦(Albert Einstein)和尼爾斯·玻爾(Niels Bohr)關于量子力學的爭論寫一首打油詩。
??Home Care Innovation Forum
很顯然,大型語言模型技術帶來了危險。我們在處理如此高度模仿人類所思所想、但實則空洞乏味的信息方面幾乎沒有經驗。該算法自動生成那些看起來具有說服力的冗長廢話(或者說,以一種看起來“客觀”而矯揉造作的方式重新組織人類已經說過的話),其以冷靜自持的腔調產出的內容可以為任何人所用,當然,也可以被濫用[2]。
如果ChatGPT寫出了一篇可信的論文,那是因為學校布置的作業向來大同小異。
從根本上來說,算法也是相當“懶”的。當我要求ChatGPT從女性主義角度概括《弗蘭肯斯坦》的情節時,它似乎并沒有參考關于該話題的海量文獻,而是給出了一些和小說關系不大、生硬而陳舊的比喻句:它“可被視為對當時父權社會的注釋”,以及“基于外表評價女性的方式”。如果把書換成《傲慢與偏見》,估計也是同樣的一套說辭。
如果向大型語言模型提供更好的提示語,那么一些缺點或可避免。但是,為了得到十分精準、有理有據的回答,使用者要對相關知識非常熟稔,此時,寫論文這件事對他來說自然也不構成困難。從根本上來說,這些缺點反映了算法并不是就《弗蘭肯斯坦》中女性主義的這一線索而組織答案,而是根據我的提示,尋找最有可能與之相關的語句。
??Knack
就像所有其他深度學習AI一樣,它在可用的數據庫中(這里指網絡上那些可搜刮的文本)尋找相關內容和模板。如果你讓它寫首愛情十四行詩,在它的答案中,像“永遠”“心”“擁抱”等詞語肯定比“螺絲刀”這類詞語多——除非你說明就要寫一首關于螺絲刀的十四行詩(當然,我也這樣做了,出來的東西不是很好看)。
算法無法理解“愛”和“擁抱”在語義上是存在聯系的。
ChatGPT令人影響深刻的地方在于,它不只是把詞語之間的語法關系理順,還能創造語境。我想,至今人類詩人還沒有寫出像這樣的句子:你是螺絲釘/將我緊緊抱住,但它達到的水平已能讓我驚嘆不已。(ChatGPT也會使用雙關,不過也是在我的引導下完成的。)
對于事實類的提示語,隨機生成的文本基本能夠給出普遍認同的事實。它會確保排除任何極具爭議的觀點,因為從定義來看,如果不是普遍認同的,那么就是存在爭議的。如果你問它是誰殺死了肯尼迪,它會回答:李·哈維·奧斯瓦爾德(Lee Harvey Oswald)。但ChatGPT偶爾也會犯錯。讓它寫我的自傳時,它把我的年齡減了兩歲(還行,我能接受),還虛構了我于職業生涯初期在制藥行業工作的經歷(就很離譜)。
教師面臨的問題是:像以前那樣教寫作還有意義嗎?
如果ChatGPT能寫出一篇可信的論文,那是因為我們給學生布置的作業大同小異:給出基本的事實,注意連貫性。學生的論文寫作已經非常模式化,幾乎到了可以和算法媲美的程度,比如論點-論據-解釋-關聯,論點-論據-分析-背景信息。學生接受的教導就是這里寫什么,那里寫什么,如果偏離模板,就可能扣分。
現在的寫作課程強調按照既定的套路來進行論證,當然這是有一定道理的,正如藝術生都會去美術館臨摹大師的作品,先從技藝開始學起,此時一味追求原創既會給學生造成負擔,也不太現實。
但這是我們真正想要的嗎?羅塞爾說教師或教育學家就連正視這個問題都很難,因為現有教育體系正是基于“這是我們一以貫之的做法”而運作的。比如,之所以設置花體字寫法課程,不過是因為它是一門傳統課程,并無其他的教學理由。但現在也許是我們問出這個棘手問題的時候了。
??Wall Street Journal
偶爾,我也是教育工作者。20世紀80年代,我曾經在監獄里教電腦課,我還曾經在家教我的孩子。但我想,我同時也是科學家。在解釋事物的工作原理之前,我會從各個部件講起。“只有你知道它是什么東西了,你才能用好它,”我內心的聲音這樣說。但是,當我向被監獄中的那些學生一一展示他們并不熟悉的電腦部件時,一個人終于插話說:“我甚至不知道怎么打開它!”
我想,學生對學習語言的態度有時就像那些囚犯對電腦的態度一樣,老師告訴他們一些陌生的結構名(名詞、嵌入式從句、前置狀語;中央處理器、隨機存儲器、比特和字節),而學生卻想著:但我只想知道怎么用。
而ChatGPT好像讓這些基礎工作都變得無關緊要,就像一般的電腦使用者并不需要知道編程或移位寄存器一樣。至于英語寫作,有軟件能做。高中人文教師赫爾曼擔心學生會依賴語言AI做所有的寫作作業,且許多人覺得在同聲傳譯AI的幫助下,學習一門外語實在是浪費時間。
我現在意識到,我當初之所以教囚犯電腦的工作原理,是因為我喜歡講這些玩意兒,我想他們中很少——或者說根本沒有人喜歡聽,但他們正確地意識到會使用電腦將是重要的生活技能。
我希望我的孩子愛上語言,愛上語言能夠起到的作用,但他們首先需要知道怎么開啟它。語言的開關并不在于名詞和動詞的區別,也不在于從句的位置,而在于實打實的交流。
我們精通一門語言后,并不是死板地遵從某一規則。語句或論文的架構并不需要僵硬地服從某種文學準則,詞、短語和論據之間并沒有嚴格的順序要求。盡管有些文章會顯得套路化,但它們存在的意義是服務于讀者。
也就是說,閱讀是一個充滿變數的認知過程,寫作者可以助讀者一臂之力,也可以橫加阻攔。有時,只要移動一個字,一個語焉不詳的句子就能讓人豁然開朗。這其實毫無奧妙可言,溝通是一門可以習得的技巧,就像標點的運用一樣。(標點本身就能幫助人更好地溝通。)
語言的開關并不在于名詞和動詞的區別,也不在于從句的位置。
要想讓讀者讀懂,作者需要具有同理心,能夠跳出自己的思維框架,站在讀者的立場上想一想。對于事實類文本來說,清晰準確的表達是最重要的。對于虛構作品來說,最重要的可能是別的東西,甚至可能是阻礙讀者一眼看穿文本,當然,這種阻礙不是隨意設置的,而是為了讓讀者在琢磨出深意之時收獲一些驚喜和愉悅。
音樂通過旋律和節奏也能達到這樣的效果,這是我們為之感動、為之興奮的部分原因。莎士比亞是出了名的喜歡用倒裝句,例如“But soft, what light through yonder window breaks?”(通常的順序應為“what light breaks through yonder window?”, 意為“噓!那邊窗子里亮起來的是什么光?”,出自《羅密歐與朱麗葉》,譯者注),通過打亂詞語順序,讓讀者的思維稍加停留,這也許是為了強調,抑或是為了讓文字游戲激發出單純的愉悅。從更廣闊的層面來看,虛構作品大多是關于有克制地暴露的藝術,在合適的時機透露信息,不早也不晚。
??David Adger
語言的本質是思維的聯結。語言學家丹尼爾·多爾(Daniel Dor)曾提出關于語言起源的假說[3],他聲稱語言的產生并非單純為了溝通,還是為了“指引思維”。語言使得我們擺脫動物的溝通機制,我們得以將自己的所思所想傳達給另一個人,而不是單純用叫聲施加威脅和示警[4]。
這對語言AI意味著什么呢?正是因為大型語言模型算法沒有以溝通為目的,它根本不知道溝通是什么,也不明白對話是有聽眾的,所以它沒辦法展示語言的用途是什么,最初被發明出來的目的是什么。AI將莎士比亞俏皮的文字游戲抹掉,也無法嫻熟地使用修辭手法,正是后者讓好的歷史學家的講述栩栩如生、令人動容。語言模型很難自己創新,而只能模仿,因為創新并非其設計初衷,正如統計學家所說,它們將淪為平庸且了無生氣的工具。
語言的使用正好相反,尤其是年輕人,最為鐘愛造梗和發明網絡語言,他們很少有創作瓶頸期,創造出的內容也相當有趣。與時俱進的教育學家一直希望開發網絡世界的多模態化,但仍在苦苦思索如何才能達成目的。關鍵是,精通多媒體溝通技巧的Z世代有著同樣的觀念、標準和默契,正如唐詩需遵循簡潔、特定格律的要求一樣。如果在課程中為語言的使用創造空間,AI就不太可能替代語言教學。
無可否認,大型語言模型引發了大量道德和法律問題。互聯網和其他形式的深度學習AI也是如此,例如深度偽造和面部識別。我們正努力解決這些問題并學習如何自處。有人認為,拋開AI寫論文所引發的恐慌不談,大型語言模型最終不過是一種工具,其功用也許就介于Excel表格所代表的乏味實用主義和數碼攝影所帶來的創造性之間。
??BBC
畢竟,書面語言自身也是一種工具和手段。這不是說我們只要堪堪會寫就行,不過確實意味著ChatGPT等技術現在提供的東西除了滿足特定需求,還可以變得更有價值。文筆不太好的人已經開始用ChatGPT優化求職信或電子郵件,一些科學家用它來潤色論文。可以說,這類技術可以幫我們馴服語言,正如音樂軟件幫助我們制作音樂一樣。對于那些英語水平有限又需要專業寫作的人來說,這項技術可能是一個很好的幫手。?
就像電子計算器將原本需要學復雜對數運算的學生從繁雜運算和對腦力的折磨中解放出來一樣,大型語言模型也許能夠幫助學生將更多的精力用于構建好的論點、改善敘事節奏、優化語句,而不用苦苦掙扎于掌握拼寫、語法和標點符號的細節。
大型語言模型缺乏想象力、風格和天資,更不是虛構作品作家的對手。羅塞爾說:“正是寫作的美學層面,讓AI很難模仿。”不過這正好讓其成為一種重要的新工具。
比如,我猜想AI會幫助學生學習如何編寫一則故事,如何構建一篇文章,并給ChatGPT產出的生硬內容潤色。或許就像一些音樂家利用制作音樂的AI生成大量素材一樣,大型語言模型也可以給作者提供大量靈感,讓其得以擇優創作。
在方方面面,AI都像人類的一面鏡子,它的缺點讓我們看到什么不能被自動化和算法化,換句話說,正是這些不能被取代的部分,構成了人性的核心。
參考文獻
[1]www.nytimes.com/2023/01/16/technology/chatgpt-artificial-intelligence-universities.html[2]nautil.us/welcome-to-the-next-level-of-bullshit-237959/[3]www.sciencedirect.com/science/article/abs/pii/S0388000116301632?via%3Dihub[4]nautil.us/talking-is-throwing-fictional-worlds-at-one-another-237548/
文/Philip Ball?
譯/Yord
校對/Rachel
原文/nautil.us/chatgpt-is-a-mirror-of-our-times-258320/
本文基于創作共享協議(BY-NC),由Yord在利維坦發布
關鍵詞: