-
鄭戈:大模型不“關心”真理和事實,但我們也不宜過早立法干預
【文/觀察者網專欄作者 鄭戈】
機器學習大模型是人工智能技術經過60余年累積而綻放出的應季花朵,令觀賞者贊嘆不已。由于當下的多模態大模型不僅可以生成文字影音內容(AIGC),甚至可以生成實物(借助3D打印技術,比如商湯“日日新”大模型體系中的“格物”),所以被認為是生成式人工智能的突破性進展。
從技術上講,大模型并非基于任何知識上的創新,而是基于算力、算法和數據的規模升級,是摩爾定律和梅特卡夫定律所揭示的技術的政治經濟效應的表現。換句話說,大模型依靠的“暴力計算”,即高性能GPU運行千億級參數模型通過海量數據進行預訓練。
用OpenAI首席科學家伊利亞·蘇茨克沃的話來說:“如何解決難題?使用大量訓練數據以及一個大型神經網絡。這樣,你可能得到的唯一結果就是成功。”為此,OpenAI的主要投資者微軟投入數億美元資金為OpenAI打造了一套超算系統,由上萬顆單價為數萬美元英偉達A100芯片組成,這套系統為訓練ChatGPT提供了3640PF-days的算力消耗(即假如每秒計算一千萬億次、連續計算3640天)。
資料圖來源:Shutterstock
由此可見,大模型訓練是一個燒錢的游戲和耗能的游戲,充滿著重資本的味道,一點兒也不節能環保。這時,我們就需要對大模型的商業和社會應用進行一番成本-收益分析,看看它所帶來的收益是否大于成本以及收益的歸屬和成本的分擔。在進行這種分析的時候,我們應當注意到尚未被計入成本的那些外部性,比如實際上由公眾承擔成本的環境損害。
·系統性風險
大模型能夠帶來的好處似乎是顯而易見的。
雖然訓練成本高昂,但一經訓練成功,它就可以產生巨大的生產力,自動化地生產文字、圖像和音視頻內容,比如幫助文字工作者生成文案和文學作品,幫助醫生了解病人的病史和癥狀描述并形成診斷和治療方案,幫助老師、科研人員和學生閱讀大量文本并提取關鍵知識點和主要論點,幫助法律職業者審閱法律文件、分析法律問題并形成初步法律意見書等等。
進一步,當細分領域的專業化大模型出現的時候,它可以改變各行各業的生產方式和組織形態,大幅度提升制造業、交通運輸業、農業乃至任何我們能夠想到的行業的自動化程度和生產率。
以商湯的“日日新”大模型體系為例,它包含:
作為對話和文本內容生成平臺的“商量”(SenseChat),可以像ChatGPT那樣跟人進行多輪對話,可以寫廣告語、文案、故事、小說和程序代碼;
如果用于智慧醫療,可以提供隨訪、健康咨詢、互聯網問診和輔助醫療服務,這些功能已經在上海新華醫院、鄭州鄭大一附院、成都華西醫院得到實際應用;
它還包含根據文字生成圖像的“描畫”,可以生成圖文并茂的文案、漫畫并輔助其他形式的藝術創作;
還有生成元宇宙3D虛擬場景的“瓊宇”,可以實現對虛擬空間和虛擬物體的復刻與交互,比如耗時兩天即可生成具有厘米級復刻精度、還原場景的真實細節和光照效果的100平方公里虛擬城市,可用于數字孿生、建筑設計、影視創作、文旅宣傳和電商展示等場景;
以及“格物”,即連接3D物體生成與3D打印,將自動生成的物體制造成實物,可用于制造業。
這些都是大模型商業模式的從業者向我們展示的美好前景,在絲毫不否認這些場景都有可能在近期實現的前提下,我想指出其另外一面,以便我們的公共選擇能夠促成一種普惠的現實,而不是讓技術成為“割韭菜”的工具,在給少數人帶來巨大收益的同時讓多數人承擔成本而只得到極微小的、甚至是虛幻的好處。
首先,正如前面已經暗示的那樣,現有的大模型訓練方案是對人類已有的創造成果的規模化學習,所產生的結果是已有內容的新的表達形式,它不會帶給我們關于事實的新知。
已有的實操都顯示出,ChatGPT更善于回答“主觀題”,而在“客觀題”方面則無法給我們提供準確的答案。也就是說,大型語言模型學會了人類的油嘴滑舌和政治正確,卻絲毫不“關心”真理和事實。
這倒是與語言本身的功能高度吻合。按照悉尼大學語言學教授恩菲爾德(N. J. Enfield)的說法,語言是人類社會生活的產物,它的首要功能不是再現現實,而是維系社會系和協調社會行動。
借助語言,我們不僅對其他人產生影響,而且與其他人一起來影響社會。在使用語言時,我們不僅考慮要不要表達自己的真實想法,還要考慮其他人會怎么理解我們所表達的內容,以及他們在按照自己的理解消化了我們所表達的內容后會如何回應我們。
語言的功能塑造著語言的形態,導致所有的人類語言中都包含大量表示人類主觀感受的詞匯,而描述自然事實的詞匯卻缺乏精準性。比如,人眼可以辨別幾百種顏色,但描述顏色的詞匯在任何人類語言中都只有屈指可數的幾個。
他最后的結論是:語言對律師而言是好的,對科學家而言卻是糟糕的。
劉慈欣的《三體》也呈現了人類語言的這種特點。
三體人不借助語言來交流,所想即所見,這種特點可能是使他們的科技遠遠領先于地球人的原因之一。畢竟地球人耗費于揣摩心思、編制花言巧語、維系社會關系上的時間和精力遠遠多于用來認識客觀世界的時間和精力。甚至更專注于事實世界的人會被認為不合群、不正常,因此會在社會選擇中被淘汰。
但人類思想的不透明也令三體人感到害怕,你永遠無法從一個地球人說的話里判斷出他的真實想法。地球人也正是利用自己的這個比較優勢(或比較劣勢)制定出了面壁者計劃。面壁者被假定是城府最深的人,他們所說所做的一切都是“計劃的一部分”,但這種計劃完全是私密的、不為外人所知的。
語言大模型的運行機理不是透過話語的表象來呈現人的內心,更不是超越語言來幫助人類認識現實,而是熟練地使用語言表象本身,使表象更加表象,乃至可以自動化地生成。
以下就是我跟ChatGPT兩段對話的截屏,從中我們可以看出ChatGPT是如何的“虛偽”,如何的不關注事實,但又如何的圓滑和政治正確,而且這種政治正確是以它所學習的語料中呈現出的主流價值觀為標準的。
對話一:關于價值判斷的主觀題
對話二:關于簡單事實的客觀題
在社會交往中策略性地使用語言是人本身就很擅長的,我們所需要的人工智能是能夠為我們理解真實世界提供可靠信息的助手,而不是能夠模仿我們熟練使用社交語言的“社牛”。在這一點上,大型語言模型還不如搜索引擎。
進而,如果人們覺得大型語言模型支撐的各種聊天工具比真人說話更“動聽”,便會減少與親人、朋友、同事或同學的語言交流,沉浸于跟機器聊天。這將進一步加劇社交媒體興起以來人在自己主觀世界中的沉浸和共同體意識的缺失。“信息繭房”、“過濾氣泡”和“回音室”等概念都描述了這樣一種數字化時代普遍現實。
對于平臺企業來說,這是一個巨大的商機,因為利用人人都有的弱點才能實現規模化,而激勵人克服弱點的產品和服務卻不可能為大眾所樂于消費。資本不負責教育人積極向上,這是一個基本事實。但人畢竟生存在真實世界中,這個世界的客觀事實總會檢驗人的主觀認知,一旦面臨生存考驗,沉浸于主觀滿足感的人類就會顯得十分脆弱。
- 原標題:生成式人工智能的系統性風險及其法律應對 本文僅代表作者個人觀點。
- 責任編輯: 李泠 
-
花數百萬整容的市委書記,判了
2023-04-17 09:21 廉政風暴 -
村民打漁疑被當成獵物遭槍擊后死亡,嫌疑人被控制
2023-04-17 09:17 -
潛逃27年命案嫌犯不起訴?廣東省檢復查
2023-04-17 08:45 疑案追蹤 -
杭州蕭山機場濃煙滾滾,官方通報
2023-04-17 07:45 -
“男子研發恒壓閥被認定槍支散件獲刑10年”追蹤:檢察院決定不起訴
2023-04-17 07:23 疑案追蹤 -
深圳建輝慈善基金會:暫停涉鄭州“抗癌共享廚房”的資助審批流程
2023-04-16 22:45 -
國務院國資委企干一局局長夏慶豐被查
2023-04-16 20:30 廉政風暴 -
上千棵核桃樹被砍陷入“羅生門”,多方回應
2023-04-16 16:38 基層治理 -
大陸剛發射衛星,臺軍又炒作:飛過“臺灣北部外海上空”
2023-04-16 16:13 臺灣 -
青海湟中一油罐車爆炸,已造成2人死亡
2023-04-16 14:24 安全生產 -
北京地鐵不再強制戴口罩,提示廣播詞已更改
2023-04-16 13:40 抗疫進行時 -
江蘇省人大常委會原副主任劉捍東被查
2023-04-16 13:08 廉政風暴 -
男子錘殺男童埋尸、勒索財物,已被執行死刑
2023-04-16 11:09 -
學習貫徹習近平總書記給中國工合國際委員會重要回信精神專題研討會在滬召開
2023-04-16 10:59 -
我國首顆主動降水測量衛星發射成功
2023-04-16 10:16 航空航天 -
焦點訪談丨國家安全是民族復興的根基
2023-04-16 09:19 2023全民國家安全教育日 -
第八個全民國家安全教育日 各地各部門多形式普及總體國家安全觀
2023-04-16 09:06 2023全民國家安全教育日 -
國安有我 全民共護——各地各部門廣泛開展全民國家安全教育日宣教活動
2023-04-16 09:04 2023全民國家安全教育日 -
曲婉婷名下的兩套房產將被拍賣
2023-04-16 08:53 廉政風暴 -
干部喝20塊的白酒被處分,紀委:不是錢的問題
2023-04-16 08:48 廉政風暴
相關推薦 -
中國,找到一條“拯救世界”之路! 評論 10中國政府就黃巖島領海基線發表聲明 評論 167“臺積電答應美方要求,急于向特朗普證明…” 評論 139“中國提議交換樣本,美方至今沒吭聲” 評論 524安排10萬億為地方政府減負,對中國經濟意味著什么? 評論 187最新聞 Hot