站在人類科技發(fā)展史角度看,2023年注定是個里程碑時刻。
ChatGPT的問世,就是個標(biāo)志性節(jié)點。文能寫文章、武能改Bug,ChatGPT甫一登場,就引爆了科技圈,“掀起第四次工業(yè)革命序幕”“開啟AI新紀(jì)元”之類的斷言也旋即而至。
不少領(lǐng)會了生成式AI威力的人,腦中沒準(zhǔn)會回旋起傳播學(xué)之父施拉姆的那句話:“這一天的前23個小時,人類傳播史上幾乎全都是空白,一切重大的發(fā)展都集中在這一天的最后7分鐘?!?/span>
科技發(fā)展亦是如此。人類絕大多數(shù)時間都處在“科技停滯”狀態(tài),但科技大爆炸來的時候經(jīng)常是“一句招呼都不打”。
認或不認,現(xiàn)實都擺在那里:那些科幻片場景正抖落那層“科幻感”以前方高能的真實景象向我們涌來,以此宣告——新技術(shù)周期與新時間單元已經(jīng)來了。
有硅谷創(chuàng)業(yè)者預(yù)測,未來2到3年的AI,將定義未來20到30年的世界。未來學(xué)家凱文·凱利也預(yù)判,未來5000天后會是AI時代;未來50年都會是AI主導(dǎo)。
現(xiàn)在看,AI在2023,就好像移動互聯(lián)網(wǎng)在2010。
“硅基文明時代”來了?
ChatGPT的橫空出世,也引爆了“硅基文明PK碳基文明”敘事的流行。
長期以來,人類秉持的主流觀點是“人類中心觀”,人們通常也是將“人與技術(shù)”的關(guān)系置于人類本位的框架下審視。但超級人工智能的到來,或許給人類社會帶來更深層次變化。
若是把世界“掰”碎了歸于量子+貝葉斯+比特+計算等本質(zhì)下看,ChatGPT的誕生,似乎多了些復(fù)雜的意味。
在以往,人們會認為:人是人,機器是機器??扇敉黄啤疤蓟?硅基”的分野,以算力為根本參照系,那人類跟GPT-4代表的,無非是兩種可以計算的主體,它們的能量態(tài)都是算力。
人腦會計算,AI也是。有IT研究者認為,從克羅馬農(nóng)人,到你和我,再到機器智能,文明的演進有跡可循,底層之處嵌著三個字:可計算。還有人認為,ChatGPT代表的是機器智能,是“晶體管機器族群”持續(xù)發(fā)展最終并行計算出的結(jié)果;人類史上的那些最強大腦,則是“人類形態(tài)超級計算機”。這類觀點,顯然是嵌入了將社會看成模擬矩陣游戲的“馬斯克式視角”。
馬斯克曾設(shè)想,人類可能只是引出超級數(shù)字智能物種的引導(dǎo)程序,人類社會是一段非常小的代碼,整個世界則是一臺計算機,沒有人類計算機就無法啟動,人類的產(chǎn)生就是為了計算機的啟動。他甚至認為,硅基生命未來將主導(dǎo)。
擱幾年前,我們會覺得,馬斯克這是《終結(jié)者》看多了,AI都沒生命何以成精?但斯坦福大學(xué)教授曝光GPT-4的“越獄計劃”和引誘人類提供開發(fā)文檔的操作,刷新了我們對AI能力的認知。
這對我們重新思考人與技術(shù)(包括AI)的關(guān)系不乏啟示:以往盛行的“人是機器主宰”看法,會不會只是因為人體智能目前還高于機器智能,AI還沒越過“圖靈測試”的臨界點?當(dāng)GPT-4推動機器智能實現(xiàn)指數(shù)級躍升時,“人主沉浮”會受到挑戰(zhàn)嗎?
揆諸現(xiàn)實,馬斯克們的“觀念同路人”越來越多。不少人認為,時代大幕正在切換:碳基文明時代,價值體現(xiàn)在空間上,從空間上對短缺資源極限控制是關(guān)鍵;硅基文明時代,價值體現(xiàn)在算力資源供給上,從時間維度對概率極限壓制是重點……他們順手一指,前方似乎就立著“硅基文明時代”的入口標(biāo)牌。
ChatGPT可能帶來“人”的消逝
世界真的要進入硅基文明時代了嗎?斯蒂芬·霍金的“AI會導(dǎo)致人類滅絕”擔(dān)憂會變?yōu)楝F(xiàn)實嗎?在當(dāng)下,諸如此類的疑問,難免隨之而來。
其實,無論回答是還是否,在我們有生之年,結(jié)果大概率都難以驗證。比起人被AI奴役或毀滅,眼下更緊迫的,也許是警惕AI被用來作惡。
《技術(shù)的真相》一書中寫道:技術(shù)的發(fā)展和運用都是在一個特定的社會、經(jīng)濟和政治語境中發(fā)生的,它從一個社會結(jié)構(gòu)中產(chǎn)生,然后被嫁接在這個結(jié)構(gòu)上。言下之意就是,技術(shù)未必有善惡,但可能被用來作惡,技術(shù)無法離地飛升,其用途跟社會深層系統(tǒng)結(jié)構(gòu)緊密綁定。
想想我們周遭的環(huán)境,幾乎可以以假亂真的AI,確定能得到善用嗎?
今年3月,用Midjourney創(chuàng)作的“特朗普被捕”圖在網(wǎng)上熱傳。這清晰地昭示了生成式AI在制造假新聞上的無限潛力。更多的潘多拉魔盒會由此開啟嗎?
這不是杞人之憂。在AI換臉被用來釣魚詐騙、AI探頭將頭探進私人床幃等亂象時有曝光的今天,誰能確保,ChatGPT不會變成CheatGPT,AIGC不會導(dǎo)致信息藻類無限繁殖?
信息膨脹疊加崗位替代,最終勢必會帶來“人”的消逝:“人”的消逝,往往是從意義感消失開始的,意義感消失,往往又是從人們“懷疑人生”開始的。
值得注意的是,不論是馬斯克、比爾·蓋茨,都對ChatGPT表示了擔(dān)憂。11月份,推出ChatGPT的OpenAI公司還掀起了一場“內(nèi)斗”:CEO山姆·奧特曼被董事會逐出,之后幾經(jīng)波折,最終又回歸OpenAI。其導(dǎo)火索正是AI保守派跟AI商業(yè)化路線堅持派之間的沖突。
AI越強大,越要重申“數(shù)字正義”
說這些,不是要否定AI技術(shù)大爆發(fā)的進步意義,而是呼吁“數(shù)字正義”的強化、“價值對齊”的歸位。
著眼長遠,AI爆發(fā)是大勢所趨,ChatGPT代表的是未來,它不能被扼殺,也無法被阻擋,可以重塑數(shù)字世界信息入口,可以深層次助推生產(chǎn)力變革、產(chǎn)業(yè)革命。正因如此,國內(nèi)“百模大戰(zhàn)”已經(jīng)打響,很多人都在冀望所有行業(yè)在AI時代重新做一遍。
但越是這樣,越不能“忘本”——穿梭在國家數(shù)字主權(quán)、未來科技競爭等宏大敘事中的AI,注定是“大”的。但AI之大,在于原力,在于潛力,也該在于人本價值。
AI的進化,不該是以“人”的消退為前提。就算從產(chǎn)業(yè)變革角度看,技術(shù)革命不可避免會帶來人工替代,那在“技術(shù)-人文”關(guān)系平衡上,最起碼不能讓伴生的釣魚、欺詐、監(jiān)控去劫奪或損害人的權(quán)利。
換句話,再怎么代表了先進生產(chǎn)力,AI都不能“目中無人”。
人有主體性與在場性。AI理應(yīng)是人的幫手,而不是對手;理應(yīng)成為人向善的輔助,而不是作惡的工具。對應(yīng)的要求就是,拿捏好AI積極價值與異化作用的平衡。
這就呼喚“數(shù)字正義”的歸位與強化——如果AI算法有弊端有風(fēng)險,那就用更高階的“算法”來消解,這套“算法”該包裹著以人為本的內(nèi)核。
法律學(xué)者曾指出,科技向善的基準(zhǔn)已不再是以物質(zhì)分配為核心的物理正義,而是以信息分享/控制為核心的數(shù)字正義。這就需要,基于數(shù)字生產(chǎn)生活方式和數(shù)字行為規(guī)律,有效探索并重建數(shù)字正義理念、原則、程序等。在AI時代,“數(shù)字正義”也該是AI價值對齊方向。
要實現(xiàn)這點,靠的是社會共同參與:應(yīng)該將AI嵌入到整個社會體系中評估,以體系化思維為AI向善提供解決方案。
今年7月,中國發(fā)布了《生成式人工智能服務(wù)管理辦法》;11月初,中國等28國簽署了全球首個AI治理宣言《布萊切利宣言》,著眼的就是對AI發(fā)展涉及的版權(quán)問題、隱私問題、科技倫理問題、網(wǎng)絡(luò)攻擊甚至戰(zhàn)爭攻擊等安全問題加以規(guī)制。
我們要擁抱AI時代,AI也該擁抱人本時代。人文跟技術(shù),該雙向奔赴。從精神屬性上看,AI應(yīng)該是人的附屬品,人不該是AI的犧牲品。原因很簡單:人是目的,AI不是。
“AI不是無情物”,才是AI的正確打開方式。