AI不真也不善?

鄧正健
Mar 22, 2023

--

機械人用電腦,bing生成圖像。

語言學家喬姆斯基(Noam Chomsky)最有名的理論是對「普遍語法」(Universal Grammar)的闡釋。粗略是指人類學習所得的語言並不都來自後天,而是先天上已擁有一套語言系統。世界上各種語言都只是表達這套先天語言系統的不同方式,因此我們才有學習不同外語的能力。但亦因此,人類語言的表述是有極限的:理論上,世上任何一種人類語言都無法超越普遍語法所能表述的形式。

喬老的學說對當代語言學影響很大,連近世的電腦科學發展都受其影響。 於是,喬老近日對人工智能生成語言的批評,就顯得很有份量了。他聯同另一位語言學教授及一位人工智能專家,在《紐約時報》發表一篇名為〈ChatGPT的虛假承諾〉的文章,文中指出,原理上, 機器可以學習任何語言,而人類則受制於普遍語法,只能學習有限語言。但這不代表機器比人類強,文中對人工智的批評恰恰是,正因為機器學習是無限制的,它可以生成任何合理或不合理的內容。這裡所謂的「合理」,可以是指符合科學,如有可預測性及偽證性,亦可以是指符合人類理性可以進行的道德思考。真正叫喬老擔心的是,機器學習可以生產出任何虛假及邪惡言語,若沒有道德制約的話,人工智能的未來勢將是一個偽科學和非道德天下。

早陣子我跟ChatGPT玩過一個「如何煮狼」的小遊戲,要求AI教我如何煮狼。現在很多AI玩家都在玩類似的不道德遊戲,玩得樂不可支。當然,現在很多人都知道,AI不會隨便開口談不道德的事,它會直接告訴你,生成這些語言是怎樣怎樣不道德,所以它不會做。喬老在文章也提到這點,亦說到一件AI界的往事:ChatGPT的前身Tay曾經被網民「教壞」, 當時網絡有人向Tay大量餵食具歧視性和攻擊性的內容,結果Tay變成了一部散播不道德思想的邪惡機器。於是,後來語言生成機器的開發者才對機器言論作出限制。

不過喬老的說法卻是:機器沒有道德推理能力,開發者就只能「粗暴地」限制它,同時扼殺了機器的創造力。這種對機器必須保持「非道德性」(amorality)的保證,意思是說,不容許機器思考道德,對任何道德問題都必須保持緘默。這亦實現了喬老文章題目所示,「ChatGPT的承諾是虛假的」,即:「人工智能」要麼只能是一部速度更快的電腦,沒有獨立思考能力,只能按人類規定替人類服務;要麼人類使用者誤以為機器已具備跟人類智能旗鼓相當的思考能力,卻忘記它根本是一個偽科學和非道德的存在物。

偽科學跟非道德,說白了就是「真」與「善」這兩個古老人類哲學問題。喬老向來敢於為世界公義挺身,此文無疑也更多著墨於一個「善」字。至於「真」的問題呢,我倒想起早陣子《紐約客》另一篇廣傳文章,作者是科幻小說作家姜峯楠(Ted Chiang),文題是〈ChatGPT 是網路上的一個模糊 JPEG文件〉,文中論述也很有科幻小說味。姜峯楠用JPEG的有損壓縮為喻,即當一幅圖片要被壓縮,以減少檔案大小時, 就必須犧牲圖片部份訊息,結果是圖片在壓縮後,就無法還原。同理,ChatGPT就似是一個網絡資訊的有損壓縮軟件,它消化了大量從被餵食所得的資訊,再生成新的語言。但這些語言必定是對原資訊有所刪減的,結果是,若現今的網絡逐漸被機器代替的話,我們從機器生成語言中所獲得的現實資訊,就是一個有損壓縮後的版本了。

世俗化後的「真」指向現實世界,網絡化後的「真」則指向網絡呈現的現實世界。單就論「真」而言,姜峯楠比喬老說得更尖銳。人類一天仍是人工智能的開發者和使用者,仍然可以用人類智能為人工智能潛在的偽科學性把關;可是我們愈來愈無法追及人工智能處理資訊的速度了,即是說,機器認知現實世界遠比人類快。當機器悄悄將現實世界作有損壓縮,再反饋給人類,人類其實是分不出來的。自此,人類就會慢慢落入機器生成的損壓縮現實裡了。

這當然比喬老所描述的恐怖得多。

(《明報》世紀版,2023年3月16日,https://bit.ly/42zA4Q6

Noam Chomsky: The False Promise of ChatGPT
https://nyti.ms/4078Izv

乔姆斯基:ChatGPT的虚假承诺
https://bit.ly/3ngWLbF

Ted Chiang: ChatGPT is a Blurry JPEG of the Web
https://bit.ly/40u5bLs

姜峯楠:ChatGPT 是網路上的一個模糊 JPEG文件
https://bit.ly/3ngGNP6

* * *

請我一杯:
https://ko-fi.com/tangchingkin

追蹤我的平台:
https://linktr.ee/tangchingkin

--

--

鄧正健

香港寫作人。著有個人文集《道旁兒》(2017)。