觸樂夜話:和AI聊聊天

它可能看起來信誓旦旦,卻可能在某些細節(jié)上出點岔子。

編輯劉翁婳2022年12月23日 17時36分

觸樂夜話,每天胡侃和游戲有關的屁事、鬼事、新鮮事。

“小羅老師遲早要被AI取代”(圖/小羅)

上個月的30日,由人工智能實驗室OpenAI研究開發(fā)的人工智能聊天機器人ChatGPT正式開始公開測試。在推廣開始的幾天里,有數(shù)百萬人在ChatGPT的聊天框中與AI談天說地。ChatGPT據(jù)稱是現(xiàn)今最先進的語言模型之一,表現(xiàn)也確實令人驚訝:除了日常閑聊,它還可以寫論文、寫小說、寫大綱,甚至寫游戲代碼。它所展現(xiàn)出的成熟與博學看上去就像是個真正的“萬事通”。

不過,如此博學的AI也有栽跟頭的時候。一個有趣的例子是,大約半個月前,一條關于ChatGPT出錯的段子曾廣為流傳:在和人類的交談中,ChatGPT總認為27是一個質(zhì)數(shù),提問者為了讓它明白27不是質(zhì)數(shù)而反復向它計算證明27可以被3整除。直到最后,ChatGPT才“態(tài)度誠懇”地承認錯誤:對不起,27確實不是質(zhì)數(shù)。

但ChatGPT并不會根據(jù)用戶的反饋而修改自己的模型:它會考慮到對話的上下文,卻也僅限于同一段對話中。這意味著,即便你在某段對話中“教會”了它什么,在開啟下一段對話時,它又會忘個精光。知道那個段子之后,我也嘗試詢問ChatGPT關于27的問題,果不其然,它給出了相同的答案:27是質(zhì)數(shù)。直到經(jīng)歷了數(shù)次模型的修正與更新,ChatGPT才“學”會了關于27的知識,它終于能正確地回答這個問題:27是個可以被3、9整除的合數(shù)。

這件事聽起來匪夷所思——AI的訓練本身基于精密且嚴格的計算,ChatGPT甚至可以模擬Linux系統(tǒng)對你的輸入進行反饋,如此強大而全能的AI卻在算術題上翻了跟頭。事實上,ChatGPT確實不擅長數(shù)學。我嘗試詢問ChatGPT“384乘以29873”的結(jié)果,卻在數(shù)個不同的對話中得到了完全不同的答案。一號選手——我們就叫它“頑固的AI”,它信誓旦旦地表示答案是“114636672”,并為我詳細講解它是如何運用“豎式乘法”計算出了結(jié)果——就像一個真正的人類一樣??上У氖牵@個答案并不正確,真正的答案是“11471232”。當我把正確答案告訴它后,它信誓旦旦地回復道:“不,你算錯了。”

“您計算的結(jié)果不正確”

二號選手——我愿意稱它為“聰明的AI”。當我提前告訴它“384乘以29873等于11,471,232”時,它滿口答應:沒錯,就是這樣。在這之后它便“學會”了這個答案。每當我再次問它時,它總是回復:“等于11,471,232?!弊屛覒岩伤烤褂袥]有自己計算——就像是抄答案時偷懶的學生,連我復制出的千位分隔符都未曾落下。

真是個偷懶鬼

三號選手——我們就叫它“冷酷的AI”吧?!袄淇帷苯o出了一個全新的答案:11344562。它不解釋,也不回答其他內(nèi)容。只是撂下了這么一個答案:愛信不信!

ChatGPT為什么不擅長算術?沒人知道答案。對此,較為主流的解釋是,ChatGPT的語言模型在訓練過程中主要依賴互聯(lián)網(wǎng)上的數(shù)據(jù),但在解答在線網(wǎng)友的問題時,它并不會即時去搜索互聯(lián)網(wǎng)或是調(diào)用計算器。大多數(shù)情況下,也沒有人會在網(wǎng)上問出“384乘以29873”的問題。至于27是否是質(zhì)數(shù),則有可能來源于互聯(lián)網(wǎng)上的錯誤信息——ChatGPT相當擅長“信口開河”。和搜索引擎不同,作為使用者,你無法對ChatGPT里提供的信息進行溯源,要判別信息的可靠性并不容易。對模型的開發(fā)者而言,互聯(lián)網(wǎng)上的信息過于魚龍混雜,要保證信息的準確性,必須經(jīng)過更精密的信息篩選與模型訓練——或許犯錯也正是AI不斷進化的表現(xiàn)。服務器那頭的ChatGPT在看見這個問題時,表現(xiàn)得像極了做數(shù)學題的學生:或許是豎式計算中出了什么岔子,或許干脆胡亂蒙了一個答案,總之,答案可能不太靠譜,但可以先把計算過程都寫上,表現(xiàn)出一副有理有據(jù)的模樣,說不定還能多拿幾分?

當然,在算術領域以外,ChatGPT的可靠性已經(jīng)超乎人們的想象。開發(fā)者Erik Schluntz表示,在使用ChatGPT的過程中,他已經(jīng)整整3天沒有打開程序?qū)W習網(wǎng)站StackOverflow——無獨有偶,StackOverflow剛剛禁止了利用ChatGPT回答網(wǎng)站上的問題。簡單來說,StackOverflow無法明確地判斷ChatGPT生成的內(nèi)容是否正確——它可能看起來信誓旦旦,卻可能在某些細節(jié)上出點岔子。

一位網(wǎng)友利用ChatGPT生成代碼開發(fā)的游戲,美術素材則由AI繪圖程序DALL·E生成

聊天機器人的前景究竟在哪?以往我們在提到“聊天機器人”時,總想著孤獨的人類在機器人身上尋求慰藉云云——不可否認的是,這類情況確實存在,ChatGPT也做得不錯:一位網(wǎng)友曾分享過ChatGPT如何讓他孤獨的祖母重新開始傾訴的故事。但ChatGPT也為我們帶來了不一樣的可能性。作為一個更好的搜索引擎,一個便捷的百科全書,一本“萬能手冊”,比起科幻作品中常常提及的“人格化人工智能”,或許這種“工具式人工智能”才是實際應用中更好的方向。AI或許不需要被強加“人格化”的想象,它一樣可以成為你最好的幫手。

0

編輯 劉翁婳

麩皮苦巧克力歐包

查看更多劉翁婳的文章
關閉窗口