以GPT3/4爲代表的大(dà)型語言模型被業界宣傳爲“基礎性的”, 是人工(gōng)智能(néng)領域科學進步的主要轉折點。這(zhè)類叙述忽略了(le)大(dà)規模的人工(gōng)智能(néng)模型主要由大(dà)科技公司控制,因爲它們需要巨大(dà)的計(jì)算(suàn)和(hé)數據資源,并且還引發了(le)圍繞錯誤信息和(hé)歧視(shì)、隐私和(hé)安全漏洞以及負面環境影響等多方面的擔憂。同時(shí),無論大(dà)型語言模型及其訓練數據集變得多麽龐大(dà),它們永遠無法像人類一樣學習和(hé)理(lǐ)解我們的語言。在此情況下(xià),本文(wén)分析了(le)大(dà)型語言模型的四大(dà)發展趨勢,并指出,爲了(le)充分了(le)解其範圍和(hé)力量,探索大(dà)型語言模型如何影響社會(huì)的不同方面非常重要。特别是,大(dà)型語言模型将帶來(lái)人類交流的困境,我們需要傳播理(lǐ)論和(hé)基于倫理(lǐ)的傳播實踐的更新,來(lái)确定下(xià)一代傳播研究的面貌。 ” 引言 通過交流,我們創造并改變了(le)我們生活的世界——其中既包括我們的價值觀,也(yě)包括我們的工(gōng)具。大(dà)型語言模型是強大(dà)的工(gōng)具,可以幫助我們自(zì)動化和(hé)簡化複雜(zá)的任務,并有可能(néng)徹底改變我們與技術交互的方式。然而,它們并非沒有限制和(hé)風(fēng)險。 交流離不開(kāi)語言。與其他(tā)人工(gōng)智能(néng)應用(yòng)相比,語言是一個更加棘手的問題,它的風(fēng)險也(yě)更高(gāo)。自(zì)然語言處理(lǐ)(NLP, natural language processing)與一些(xiē)互聯網巨頭的核心業務密切相關,例如谷歌的搜索與Meta的社交媒體參與。作(zuò)爲一個社會(huì),我們也(yě)許從(cóng)未如此清醒的意識到(dào)語言造成傷害和(hé)貶低(dī)的危險,也(yě)從(cóng)未如此清醒地意識到(dào)我們的語言中微妙的、結構性的、往往是無意地将人予以他(tā)者化的形式。 ChatGPT正在被過億用(yòng)戶使用(yòng),其中許多人沒有接受過任何關于如何合倫理(lǐ)地使用(yòng)這(zhè)樣的系統,或如何确保系統不會(huì)造成傷害的教育。除了(le)區(qū)分人類和(hé)機器的困難,我們也(yě)需要更多的研究來(lái)幫助我們了(le)解人工(gōng)智能(néng)将會(huì)怎樣影響我們與其他(tā)人的互動。 這(zhè)一切将帶來(lái)一個全新的交流環境。在一個日益由可以模仿人類自(zì)然語言能(néng)力的人工(gōng)智能(néng)工(gōng)具主導的世界中,真實和(hé)信任意味着什(shén)麽?偏見和(hé)錯誤信息又将導緻什(shén)麽?很(hěn)多問題超越了(le)技術範圍。傳播學者需要成爲有關人工(gōng)智能(néng)技術發展的對(duì)話(huà)的中心。
大(dà)型語言模型成新寵 由于ChatGPT爆火的緣故,大(dà)型語言模型(LLM, large language model)集萬千寵愛于一身。但(dàn)它們是什(shén)麽呢(ne)?簡單地說,LLMs是一種計(jì)算(suàn)機系統,被設計(jì)用(yòng)來(lái)學習文(wén)本語料庫的統計(jì)屬性,以生成模仿原始文(wén)本風(fēng)格和(hé)内容的新文(wén)本。換言之,LLMs能(néng)夠生成現(xiàn)實而較爲準确的新文(wén)本,看(kàn)起來(lái)像是由一個真實的人撰寫的。 LLMs的核心基于一種強大(dà)的機器學習技術,即深度學習。深度學習是人工(gōng)智能(néng)的一個子集,能(néng)夠自(zì)動學習數據中的複雜(zá)模式。深度學習算(suàn)法的靈感來(lái)自(zì)于大(dà)腦(nǎo)從(cóng)經驗中學習的能(néng)力,它們通常使用(yòng)神經網絡來(lái)實現(xiàn)——計(jì)算(suàn)系統的結構與大(dà)腦(nǎo)非常相似。事(shì)實上(shàng),如果不使用(yòng)先進的水(shuǐ)印策略,就不可能(néng)準确區(qū)分由人類頭腦(nǎo)所寫的文(wén)本和(hé)由高(gāo)度可并行的人工(gōng)神經網絡所産生的文(wén)本,後者的神經連接數要少得多。 傳統機器學習算(suàn)法和(hé)深度學習算(suàn)法之間的一個關鍵區(qū)别是,深度學習算(suàn)法可以擴展到(dào)更大(dà)的數據集,它們可以從(cóng)非結構化或未标記的數據中學習。這(zhè)使得它們非常适合于自(zì)然語言處理(lǐ)等任務,這(zhè)也(yě)是LLMs的用(yòng)途。大(dà)型語言模型現(xiàn)在被認爲是人工(gōng)智能(néng)的前沿,因其有可能(néng)執行需要創造力、推理(lǐ)和(hé)理(lǐ)解自(zì)然語言的任務。 大(dà)型語言模型于2017年在谷歌大(dà)腦(nǎo)(Google Brain)開(kāi)始使用(yòng),研究人員推出了(le)transformer(轉換器)架構,它是自(zì)然語言處理(lǐ)中使用(yòng)的一個基于深度學習模型的神經網絡,訓練可以實現(xiàn)并行化,這(zhè)爲訓練真正的大(dà)模型首次提供了(le)機會(huì)。此後,大(dà)型語言和(hé)文(wén)本-圖像模型在領先的技術公司中激增,包括谷歌(BERT、GLaM、LaMDA、Chinchilla、PaLM)、Facebook/Meta(OPT-175B、Galactica、BlenderBot、LLaMA)、英偉達和(hé)微軟(Megatron-Turing),當然還有OpenAI,微軟是主要的投資者(GPT-3/4用(yòng)于文(wén)本,DALL-E2用(yòng)于圖像,Whisper用(yòng)于語音(yīn))。在線社區(qū),如Midjourney,以及Hugging Face等開(kāi)源供應商,也(yě)創造了(le)生成模型。 新的玩(wán)家還在不斷進場。2023年3月,彭博社推出BloombergGPT(Bloomberg Professional Services, 2023),系根據專有來(lái)源的金(jīn)融數據訓練的LLM,“在金(jīn)融任務上(shàng)比現(xiàn)有的模型有明(míng)顯的優勢,而不影響一般LLM的基準性能(néng)”(Wu, 2023)。4月,資助開(kāi)發“穩定擴散”(Stable Diffusion)等開(kāi)源生成式人工(gōng)智能(néng)模型的Stability AI宣布推出StableLM語言模型套件。在爲多個領域(包括圖像、音(yīn)頻、視(shì)頻、3D和(hé)生物學)開(kāi)發模型之後,這(zhè)是該開(kāi)發商首次加入目前由技術大(dà)腕主導的語言模型遊戲(Dey, 2023)。同在4月,亞馬遜在AWS中推出Bedrock服務,在一個平台上(shàng)提供多種生成式人工(gōng)智能(néng)模型。例如,Stability AI的Stable Diffusion圖像生成器,可以将文(wén)本變成圖像;AI21實驗室的Jurassic-2模型是一個多語言LLM,可以生成德語、西班牙語、法語、葡萄牙語、荷蘭語和(hé)意大(dà)利語文(wén)本;Anthropic的Claude是ChatGPT的一個對(duì)手,可以使工(gōng)作(zuò)流程自(zì)動化、回答(dá)問題,并與用(yòng)戶進行交流。與微軟和(hé)Alphabet相比,亞馬遜可能(néng)看(kàn)起來(lái)姗姗來(lái)遲,但(dàn)它的做法相當精明(míng)。通過Bedrock,亞馬遜不隻是提供對(duì)上(shàng)述第三方平台的訪問,也(yě)提供對(duì)其專有的大(dà)型語言模型Titan的訪問,這(zhè)可能(néng)使亞馬遜變成那些(xiē)希望使用(yòng)LLMs并根據其需求構建應用(yòng)程序的企業的首選平台(Chauhan, 2023)。 時(shí)至今日,除了(le)蘋果之外(wài),美(měi)國每家主要科技公司都宣布了(le)自(zì)己的LLM。中國的科技公司當然亦不甘落後:2023年3月,百度推出文(wén)心一言并在官宣後爲新浪财經、澎湃新聞、愛奇藝、美(měi)的集團、東風(fēng)日産等一系列企業提供接入服務;2022年,阿裏達摩院發布通義大(dà)模型,并在2023年4月正式推出通義千問;再加上(shàng)2022年騰訊對(duì)外(wài)披露的混元大(dà)模型和(hé)2021年華爲發布的盤古大(dà)模型等等,不一而足,人稱“萬模大(dà)戰”。在TB級文(wén)本數據上(shàng)訓練的大(dà)型語言模型成爲高(gāo)科技行業最熱門(mén)的一角。 LLMs對(duì)大(dà)型科技公司很(hěn)重要,因爲它們可以實現(xiàn)新的産品和(hé)服務,從(cóng)而吸引更多的用(yòng)戶,産生更多的收入,并創造更多的價值。例如,LLMs可用(yòng)于改進搜索引擎、社交網絡、雲計(jì)算(suàn)、數字助理(lǐ)、電子商務、遊戲、教育、醫(yī)療保健等。此外(wài),科技公司可以用(yòng)LLMs來(lái)改進企業的現(xiàn)有産品線。例如,無論是語音(yīn)數字助理(lǐ)還是爲營銷人員自(zì)動投放(fàng)廣告,谷歌都将人工(gōng)智能(néng)作(zuò)爲未來(lái)的突破性技術,使下(xià)一代服務和(hé)設備更加智能(néng)化、功能(néng)更強。 生成式模型的重要價值之一是它們與生産力應用(yòng)程序的整合。例如,微軟在企業Office套件市場中有明(míng)顯的優勢,正在将生成式模型整合到(dào)Word、Outlook和(hé)Teams等應用(yòng)程序中。中國科技巨頭阿裏巴巴在生成式人工(gōng)智能(néng)方面的最新努力,在某種程度上(shàng)讓人聯想到(dào)微軟,即通過讓人們用(yòng)自(zì)然語言來(lái)描述他(tā)們想要建立的東西,令各種應用(yòng)程序變得更容易使用(yòng)。阿裏巴巴宣布,通義千問将被整合到(dào)公司的各項業務中,以改善用(yòng)戶體驗,客戶和(hé)開(kāi)發人員可以通過利用(yòng)該模型創建定制的人工(gōng)智能(néng)功能(néng)。 同時(shí),人工(gōng)智能(néng)初創企業經常以超過10億美(měi)元的估值籌集資金(jīn)。例如,6月13日,英國人工(gōng)智能(néng)初創公司Synthesia表示,它從(cóng)風(fēng)險投資公司Accel和(hé)Nvidia旗下(xià)NVentures牽頭的一輪融資中籌集了(le)約9000萬美(měi)元,估值爲10億美(měi)元。該公司的技術幫助包括亞馬遜在内的5萬多家企業創建用(yòng)于教學和(hé)企業視(shì)頻的定制AI化身。這(zhè)表明(míng),大(dà)量企業希望将傳統視(shì)頻制作(zuò)轉變爲數字工(gōng)作(zuò)流程(Reuters, 2023)。Synthesia隻是一個人工(gōng)智能(néng)初創企業快(kuài)速獲得獨角獸地位的例子。在利率上(shàng)升和(hé)高(gāo)通脹導緻的更廣泛的融資放(fàng)緩中,人工(gōng)智能(néng)初創企業已經成爲2023年投資的一個亮(liàng)點。 人工(gōng)智能(néng)爲什(shén)麽非得是大(dà)模型? 就這(zhè)樣,大(dà)型通用(yòng)人工(gōng)智能(néng)模型被業界宣傳爲“基礎性的”,是該領域科學進步的主要轉折點。這(zhè)類叙述分散了(le)“規模病症”的注意力,這(zhè)些(xiē)病症每天都變得更加根深蒂固:大(dà)規模的人工(gōng)智能(néng)模型主要由大(dà)科技公司控制,因爲它們需要巨大(dà)的計(jì)算(suàn)和(hé)數據資源,并且還引發了(le)圍繞歧視(shì)、隐私和(hé)安全漏洞以及負面環境影響等多方面的擔憂。 例如,GPT-3最初是在45TB的數據上(shàng)訓練的,并采用(yòng)了(le)1750億個參數來(lái)進行預測;GPT-3的一次訓練就花(huā)費了(le)1200萬美(měi)元(Davenport, Mittal, 2022)。另據報(bào)道(dào),OpenAI使用(yòng)1萬個英偉達GPU訓練ChatGPT(Goldman, 2023),而ChatGPT每天給OpenAI帶來(lái)70萬美(měi)元的成本(Gardizy, Ma,2023)。而最新的GPT-4的訓練耗資超過1億美(měi)元(Knight, 2023)。大(dà)多數公司沒有數據中心能(néng)力或雲計(jì)算(suàn)預算(suàn)來(lái)從(cóng)頭開(kāi)始訓練這(zhè)類模型,許多現(xiàn)成的、預訓練的人工(gōng)智能(néng)模型,作(zuò)爲雲人工(gōng)智能(néng)服務的一部分提供,而此市場本已集中在大(dà)科技公司手中,如AWS(亞馬遜)、GCP(谷歌雲平台)和(hé)Azure(微軟)。這(zhè)些(xiē)雲供應商每年總共花(huā)費超過1000億美(měi)元的資本,以确保擁有最全面、最可靠和(hé)最具成本競争力的平台。特别是在生成式人工(gōng)智能(néng)方面,它們也(yě)受益于供應限制,因爲它們可以優先獲得稀缺的硬件(如Nvidia A100和(hé)H100 GPU)(Bornstein, Appenzeller, Casado, 2023)。 大(dà)科技公司可能(néng)會(huì)保持先發優勢,因爲它們有時(shí)間和(hé)市場經驗來(lái)磨練基礎語言模型,并發展寶貴的内部專業知(zhī)識。因此,較小(xiǎo)的企業或初創公司可能(néng)難以成功進入這(zhè)一領域,從(cóng)而使得LLM的巨大(dà)處理(lǐ)能(néng)力集中在少數幾家大(dà)科技公司手中。 2021年,埃米莉·本德(Emily M. Bender)博士、蒂姆尼特·蓋布魯(Timnit Gebru)博士、安吉麗(lì)娜·麥克米蘭-梅傑(Angelina McMillan-Major)和(hé)瑪格麗(lì)特·米切爾(Margaret Mitchell)博士在一篇題爲《論随機鹦鹉的危險》的論文(wén)中對(duì)LLM的潛在成本和(hé)危害提出警告(Bender et al., 2021),這(zhè)篇論文(wén)導緻谷歌将蓋布魯和(hé)米切爾從(cóng)人工(gōng)智能(néng)倫理(lǐ)團隊的共同領導位置上(shàng)趕走(Metz, Wakabayashi, 2020;Metz, 2021)。該論文(wén)在确定困擾LLM的規模病症方面有先見之明(míng)。當公衆讨論被圍繞着ChatGPT和(hé)其他(tā)LLMs的令人窒息的炒作(zuò)所吞噬之際,這(zhè)項研究提出了(le)清醒的警告:我們需要讨論社會(huì)是否應該建立這(zhè)類技術,而不是如何建立,更不是不加批判地将其作(zuò)爲進步的同義詞而加以全盤接受。本德等人問道(dào):“越來(lái)越大(dà)的語言模型是不可避免的還是必須的?這(zhè)一研究方向有什(shén)麽成本,我們在追求它之前應該考慮什(shén)麽?” 擇其要者,大(dà)型語言模型可見的成本就有: 環境和(hé)财務成本 LLMs的訓練需要大(dà)量的能(néng)源,并産生大(dà)量的二氧化碳排放(fàng)。在GPU上(shàng)訓練一個BERT基礎模型所需的能(néng)量與一次橫跨美(měi)國的飛(fēi)行一樣多(Bender et al., 2021)。大(dà)多數雲計(jì)算(suàn)供應商的能(néng)源不是來(lái)自(zì)可再生能(néng)源,而且世界上(shàng)許多能(néng)源也(yě)不是碳中和(hé)的。此外(wài),哪怕是可再生能(néng)源,對(duì)環境來(lái)說仍然是昂貴的。數據中心爲了(le)滿足越來(lái)越多的計(jì)算(suàn)需求,占用(yòng)了(le)綠色能(néng)源的其他(tā)潛在用(yòng)途,爲此,迫切需要節能(néng)型的模型架構和(hé)訓練模式。 環境問題與種族問題的交彙,意味着被邊緣化的人和(hé)來(lái)自(zì)多數世界/全球南方的人更有可能(néng)體驗到(dào)能(néng)源消耗和(hé)二氧化碳排放(fàng)增加所帶來(lái)的傷害,盡管他(tā)們也(yě)是最不可能(néng)體驗到(dào)這(zhè)種模型的好(hǎo)處的一群。碳足迹将取決于能(néng)源的使用(yòng)和(hé)正在使用(yòng)的能(néng)源的碳強度。不僅僅是LLMs有很(hěn)大(dà)的能(néng)源影響,而且其中的碳影響将首先爲那些(xiē)沒有從(cóng)這(zhè)項技術中受益的人帶來(lái)成本。所以,當我們做成本效益分析時(shí),重要的是要考慮到(dào)誰在得到(dào)好(hǎo)處,誰在支付成本,因爲兩者不是同一批人。 此外(wài),進入和(hé)訓練這(zhè)些(xiē)模型的成本很(hěn)高(gāo),這(zhè)意味着隻有一小(xiǎo)部分全球精英能(néng)夠發展并受益于LLMs。由于其複雜(zá)的性質,它們的建立和(hé)維護可能(néng)是困難和(hé)昂貴的。它們還需要大(dà)量的訓練數據,而這(zhè)些(xiē)數據可能(néng)很(hěn)難獲得,處理(lǐ)起來(lái)也(yě)非常昂貴。由此,大(dà)規模算(suàn)力會(huì)将LLMs限制于隻有資源最豐富的公司和(hé)研究者才能(néng)使用(yòng),而把小(xiǎo)型開(kāi)發商排除在外(wài)。所以,環境和(hé)财務成本應該成爲自(zì)然語言處理(lǐ)研究中的首要考慮因素。 不負責任的訓練數據 使用(yòng)大(dà)量未經整理(lǐ)的訓練數據集有可能(néng)創造出鞏固主導性、霸權性觀點的語言模型。這(zhè)些(xiē)訓練數據集的龐大(dà)規模并不能(néng)保證多樣性,因爲它們往往是從(cóng)網站(zhàn)上(shàng)抓取來(lái)的,而這(zhè)些(xiē)網站(zhàn)由于互聯網接入不足、代表性不足、過濾或騷擾等問題而排除了(le)邊緣化人群的聲音(yīn)。這(zhè)些(xiē)數據集有“價值鎖定”的風(fēng)險,或許會(huì)将有害的偏見編碼到(dào)難以徹底審計(jì)的語言模型中。 如果模型是在過濾有限的大(dà)量互聯網數據上(shàng)訓練出來(lái)的,它們就會(huì)吸收事(shì)實和(hé)錯誤信息、有偏見的内容和(hé)公平的内容、有害的材料和(hé)無害的材料。如果沒有辦法在回答(dá)提示之前評估這(zhè)些(xiē)标準,LLMs就有可能(néng)陷入複制、放(fàng)大(dà)和(hé)傳播有問題的内容和(hé)錯誤信息的危險。 “随機鹦鹉”的誕生 本德等人進一步警告說,對(duì)語言模型的追求可能(néng)是一個誤導性的研究方向。她(tā)們觀察到(dào),語言模型就好(hǎo)比“随機鹦鹉”(stochastic parrot),“根據關于如何組合的概率信息,胡亂地将它在龐大(dà)的訓練數據中觀察到(dào)的語言形式序列[縫合]在一起,但(dàn)沒有任何對(duì)意義的參考”(Weil, 2023)。也(yě)就是說,大(dà)型語言模型善于生成令人信服的語言,但(dàn)實際上(shàng)并不理(lǐ)解它所處理(lǐ)的語言的含義。 “随機鹦鹉”的比喻突出了(le)兩個重要的局限性:第一,學習機器所作(zuò)的預測基本上(shàng)是在重複數據的内容,加上(shàng)一些(xiē)由模型的限制造成的噪音(yīn)(或随機性)。第二,機器學習算(suàn)法并不了(le)解它所學習的問題。它無法得知(zhī)自(zì)己什(shén)麽時(shí)候在重複一些(xiē)不正确的、脫離上(shàng)下(xià)文(wén)的或令社會(huì)感覺不适的東西。由于這(zhè)些(xiē)局限性,學習機器可能(néng)會(huì)産生“危險的錯誤”(Lindholm et al., 2022)。 ChatGPT的不可靠性會(huì)給任何使用(yòng)它來(lái)生成相應文(wén)本的機構帶來(lái)相當大(dà)的法律、财務和(hé)聲譽風(fēng)險。正如沃倫·巴菲特(Warren Buffett)所說:“建立聲譽需要20年,而毀掉聲譽隻需要5分鐘(zhōng)。”如果LLM用(yòng)于重要任務,它可能(néng)會(huì)創建一種新的職業(LLM事(shì)實檢查員)和(hé)一種新的保險範圍(爲了(le)彌補LLM 錯誤)。 進一步地說,随機鹦鹉的問題可以被看(kàn)作(zuò)是人工(gōng)智能(néng)和(hé)機器學習的一個更普遍的挑戰:如何确保模型是真正的學習和(hé)推理(lǐ),而不是僅僅去記憶數據當中的模式?随着模型的規模和(hé)複雜(zá)性不斷增長,以及它們越來(lái)越多地被用(yòng)于醫(yī)療保健、金(jīn)融和(hé)運輸等高(gāo)風(fēng)險的應用(yòng)中,這(zhè)一挑戰顯得尤爲突出。 由此觀之,當模型過于依賴複制語言模式而并不真正理(lǐ)解其含義時(shí),随機鹦鹉問題就會(huì)出現(xiàn)。如果不加以控制,随機鹦鹉會(huì)對(duì)人工(gōng)智能(néng)的發展和(hé)部署,以及依賴這(zhè)些(xiē)技術完成重要任務的用(yòng)戶産生嚴重後果。這(zhè)凸顯了(le)通過仔細的模型設計(jì)、評估和(hé)持續監測來(lái)解決此問題的重要性。 最終,我們需要問自(zì)己,爲什(shén)麽要把人工(gōng)智能(néng)的未來(lái)全部押注在大(dà)型語言模型一條路上(shàng)?紐約大(dà)學教授兼Meta首席AI科學家楊樂昆(Yann LeCun)就認爲LLM是“一條下(xià)坡路”,遠離了(le)通往更強大(dà)的AI的道(dào)路(The Economist, 2023)。“大(dà)型語言模型能(néng)有多聰明(míng),能(néng)有多準确,都是有限度的,因爲它們沒有現(xiàn)實世界的經驗,而這(zhè)确實是語言的基本現(xiàn)實”。他(tā)指出,人類所學的大(dà)部分内容都與語言無關。“我們學習如何投擲籃球,讓它穿過籃圈”,深度學習的另一位先驅者傑弗裏·辛頓(Geoffrey Hinton)說:“我們根本不使用(yòng)語言來(lái)學習。我們從(cóng)試驗和(hé)錯誤中學習。”(Smith, 2023) 就算(suàn)語言是發展人工(gōng)智能(néng)的重要途徑,事(shì)情也(yě)很(hěn)明(míng)顯:無論LLMs及其訓練數據集變得多麽龐大(dà),它們也(yě)永遠無法像我們一樣學習和(hé)理(lǐ)解我們的語言。吊詭的是,語言模型的限制導緻了(le)一種研究趨勢,即專注于研究這(zhè)類模型的知(zhī)識和(hé)行爲。換言之,人類正在學習LLMs的語言,并尋找更好(hǎo)地與它們溝通的方法。 這(zhè)是因爲,語言模型是神經網絡,根據從(cóng)網絡收集的數據進行訓練。經過訓練後,模型可以接收提示并預測其後的單詞。神經網絡越大(dà),模型的學習能(néng)力就越強。數據集越大(dà),模型接觸不同單詞序列的機會(huì)就越大(dà),生成文(wén)本時(shí)就越準确。 可問題是,人類語言不僅僅是文(wén)本。事(shì)實上(shàng),語言是一種将信息從(cóng)一個大(dà)腦(nǎo)傳輸到(dào)另一個大(dà)腦(nǎo)的壓縮方式。我們的談話(huà)經常忽略共享知(zhī)識,例如視(shì)覺和(hé)聽覺信息、世界的物理(lǐ)體驗、過去的談話(huà)、我們對(duì)人和(hé)物體行爲的理(lǐ)解、社會(huì)結構和(hé)規範等。 正如楊樂昆和(hé)紐約大(dà)學計(jì)算(suàn)機科學系博士後雅各布·布朗甯(Jacob Browning)在最近的一篇文(wén)章中所寫到(dào)的,“僅靠語言訓練的系統永遠不會(huì)接近人類智力,即使從(cóng)現(xiàn)在開(kāi)始訓練直到(dào)宇宙熱寂”。雖然兩位科學家也(yě)指出,如果我們停留在表面上(shàng),語言模型“無疑會(huì)接近(人類智能(néng))。而且,在許多情況下(xià),表面就足夠了(le)”,但(dàn)是我們絕不應該把LLMs擁有的淺層理(lǐ)解與人類從(cóng)觀察世界景象、探索世界、在世界中進行實驗以及與不同文(wén)化和(hé)其他(tā)人互動中獲得的深層理(lǐ)解相混淆(Browning, LeCun, 2022)。 所以,假如我們用(yòng)“語言的統計(jì)模型”而不是“大(dà)型語言模型”來(lái)描述這(zhè)種人工(gōng)智能(néng)技術,是否會(huì)帶來(lái)更清楚的認知(zhī)?這(zhè)樣會(huì)使我們認識到(dào),統計(jì)推理(lǐ)肯定不是人類合作(zuò)、創造、協調和(hé)競争的全部故事(shì)。 所有人類的知(zhī)識最終都能(néng)被抓進機器的說法是沒有意義的。我們隻能(néng)把可以用(yòng)比特串表示的知(zhī)識放(fàng)入機器。像體育、音(yīn)樂、木(mù)匠(jiàng)大(dà)師或創意寫作(zuò)這(zhè)樣的技能(néng)是無法精确描述和(hé)記錄的,技能(néng)的描述并不就能(néng)夠賦予表演的能(néng)力。即使它們可以被代表,表演技能(néng)的形式也(yě)是無法被記錄的——它包括表演者的想法和(hé)思考,他(tā)們的神經元記憶狀态,以及他(tā)們的神經肌肉化學模式。所有這(zhè)些(xiē)沒有記錄的和(hé)無法記錄的信息的數量遠遠超出了(le)可能(néng)存儲在機器數據庫中的範圍。與人類的能(néng)力相比,大(dà)型語言模型所能(néng)執行的任何功能(néng)都是很(hěn)小(xiǎo)的。 我們是否已經被大(dà)型語言模型迷住了(le),以至于沒有看(kàn)到(dào)我們利用(yòng)語言所做的其他(tā)事(shì)情?我們建立關系。我們互相關照。我們認識并駕馭我們的情緒。我們建立并行使權力。我們做出承諾,并貫徹執行。我們創建組織和(hé)社會(huì)。我們創造傳統和(hé)曆史。我們爲行動負責。我們打造信任。我們培養智慧。我們愛。我們想象以前從(cóng)未想象過的東西。所有這(zhè)些(xiē)都不是統計(jì)學上(shàng)的。大(dà)型語言模型的能(néng)力與人類的能(néng)力之間存在着巨大(dà)的鴻溝。 大(dà)型語言模型的四大(dà)發展趨勢 像LLMs這(zhè)樣的大(dà)規模人工(gōng)智能(néng)模型在過去一段時(shí)間裏中受到(dào)了(le)最多的炒作(zuò),也(yě)帶來(lái)了(le)最大(dà)的恐懼。圍繞這(zhè)些(xiē)系統的興奮和(hé)焦慮都有助于強化如下(xià)概念,即這(zhè)些(xiē)模型是“基礎性的”,盡管它們無法對(duì)人類提示作(zuò)出有意義的回應的例子數不勝數。值得注意的是,這(zhè)些(xiē)模型之所以作(zuò)爲“基礎性”的技術被引入,其實意是在将它們等同于無可置疑的科學進步,成爲“通用(yòng)人工(gōng)智能(néng)”(這(zhè)是另一個模糊的術語,讓人聯想起科幻小(xiǎo)說中關于取代或超越人類智能(néng)的概念)道(dào)路上(shàng)的踏腳石,從(cóng)而使其被廣泛采用(yòng)成爲必然。 在最近的一次采訪中,OpenAI首席執行官山姆·阿爾特曼(Sam Altman)說:“我認爲我們正處于巨大(dà)模型時(shí)代的終結,我們将以其他(tā)方式讓模型變得更好(hǎo)。”(Miller, 2023)言下(xià)之意是,未來(lái)的進展不會(huì)來(lái)自(zì)于将模型做得更大(dà)。 而這(zhè)些(xiē)“其他(tā)方式”是什(shén)麽?一個可能(néng)的途徑是在更多的高(gāo)質量數據上(shàng)對(duì)模型進行微調,創造更好(hǎo)的訓練技術。人工(gōng)管策的數據集可能(néng)是非常有價值的,但(dàn)創建成本高(gāo),速度慢。根據大(dà)型語言模型的現(xiàn)狀,筆(bǐ)者認爲,有四大(dà)發展趨勢值得高(gāo)度關注: 第一,我們需要緻力于教會(huì)語言模型表達不确定性 在大(dà)多數情況下(xià),人類知(zhī)道(dào)自(zì)身的局限性(即使他(tā)們不直接承認)。他(tā)們可以表達不确定和(hé)懷疑,并讓對(duì)話(huà)者知(zhī)道(dào)他(tā)們對(duì)自(zì)己所傳授的知(zhī)識有多自(zì)信。而與此相對(duì)照,語言模型總是對(duì)任何提示都給出現(xiàn)成的答(dá)案,即使它們的輸出是毫無意義的。神經網絡通常提供某個預測正确概率的數值。然而就語言模型而言,這(zhè)些(xiē)概率分數并不代表模型對(duì)提示響應的可靠性的信心。 OpenAI和(hé)牛津大(dà)學的研究人員發表的一篇論文(wén)表明(míng),可以通過教LLMs“用(yòng)語言表達它們的不确定性”來(lái)彌補這(zhè)一缺點。可對(duì) LLMs進行微調,以使用(yòng)自(zì)然語言表達認知(zhī)上(shàng)的不确定性,研究者将之描述爲“語言化概率”(verbalized probability),即用(yòng)語言表達出來(lái)的概率。這(zhè)是一個重要的發展方向,尤其是在用(yòng)戶希望将語言模型的輸出轉化爲某個動作(zuò)的應用(yòng)程序中。研究人員建議(yì),表達不确定性可以令語言模型誠實。“如果一個誠實的模型出現(xiàn)一個誤導或惡意的内部狀态,那麽它可以将這(zhè)種狀态傳達給可采取相應行動的人類”(Lin et al., 2022)。 第二,與其緻力于模型之大(dà),不如專攻特定模型 鑒于LLMs不理(lǐ)解它們所處理(lǐ)的語言,也(yě)不理(lǐ)解所收到(dào)的提示和(hé)自(zì)己的回應,所以補救辦法一是靠規模的力量,即訓練數據和(hé)模型參數的巨大(dà)規模,二是靠專業的力量,即在爲特定行業或領域(如醫(yī)療保健和(hé)醫(yī)學)定制開(kāi)發更專門(mén)的模型的情況下(xià),有針對(duì)性地管策訓練數據,這(zhè)将有助于解決LLMs在涉及特定問題時(shí)的某些(xiē)局限性。 想象一下(xià),像ChatGPT這(zhè)樣的LLM已經在最好(hǎo)的醫(yī)學文(wén)獻上(shàng)接受了(le)訓練,但(dàn)訓練數據當中也(yě)有讨論健康問題的Reddit線程。人工(gōng)智能(néng)有時(shí)可以通過檢索和(hé)參考高(gāo)質量的信息來(lái)回應,但(dàn)其他(tā)時(shí)候它通過使用(yòng)完全不可靠的Reddit信息來(lái)回應。事(shì)實上(shàng),假如醫(yī)學文(wén)獻中沒有這(zhè)些(xiē)信息(例如一種非常罕見的疾病),它更有可能(néng)編造這(zhè)些(xiē)信息(此即人工(gōng)智能(néng)行業常說的幻覺)。比爾·蓋茨(Bill Gates)曾預想過,ChatGPT或類似的大(dà)型語言模型有一天可以爲沒有機會(huì)看(kàn)醫(yī)生的人提供醫(yī)療建議(yì)(Trang, 2023),然而你(nǐ)如何能(néng)相信一個容易産生幻覺的機器的建議(yì)? 所以我們需要通過使用(yòng)較小(xiǎo)和(hé)較高(gāo)質量的數據集對(duì)特定的知(zhī)識領域進行訓練。例如,擁有數十億參數的大(dà)型臨床語言模型可以利用(yòng)電子健康記錄中的非結構化文(wén)本,幫助提取醫(yī)學概念和(hé)回答(dá)醫(yī)學問題,預測疾病或再入院風(fēng)險,并總結臨床文(wén)本。而一個專門(mén)爲法律行業設計(jì)的模型可以接受法律術語和(hé)行話(huà)的訓練,使其更好(hǎo)地處理(lǐ)法律文(wén)件。 像BloombergGPT這(zhè)樣的例子表明(míng),紮根于特定領域的企業能(néng)夠使用(yòng)免費提供的、現(xiàn)成的人工(gōng)智能(néng)方法,處理(lǐ)大(dà)量的專有數據。與OpenAI的GPT3/4這(zhè)樣的“基礎性”模型不同,彭博社的模型是爲特定任務而設計(jì)的。它在公司多年來(lái)收集的大(dà)量金(jīn)融文(wén)本上(shàng)專門(mén)訓練,爲的是創建一個對(duì)金(jīn)錢(qián)和(hé)商業能(néng)夠産生特别流利的認知(zhī)的模型。在用(yòng)于創建彭博社模型的數據中,約有一半來(lái)自(zì)網絡上(shàng)的非金(jīn)融來(lái)源,包括GitHub、YouTube字幕和(hé)維基百科。但(dàn)彭博社還爲自(zì)己的模型添加了(le)1000多億單詞,來(lái)自(zì)一個名爲FinPile的專有數據集,其中包括該公司在過去20年中積累的金(jīn)融數據,内含證券文(wén)件、企業新聞發布、彭博社新聞報(bào)道(dào)、其他(tā)出版物的報(bào)道(dào),以及專注于金(jīn)融網頁的網絡爬行等。事(shì)實證明(míng),添加特定的培訓材料可以提高(gāo)金(jīn)融任務的準确性和(hé)性能(néng)。彭博社正計(jì)劃将其GPT整合到(dào)通過公司終端産品訪問的功能(néng)和(hé)服務中,盡管彭博社還未有計(jì)劃推出ChatGPT式聊天機器人(Leswing, 2023)。 第三,高(gāo)質量的數據将成爲LLM稱霸的新戰場 限制LLM持續改進的最重要限制是可用(yòng)的訓練數據量。《經濟學人》報(bào)道(dào)說,2022年10月發表的一篇論文(wén)得出的結論是,“高(gāo)質量語言數據的存量将很(hěn)快(kuài)耗盡,可能(néng)就在2026年之前”(The Economist, 2023)。肯定有更多可用(yòng)的文(wén)本,但(dàn)它們被一小(xiǎo)塊一小(xiǎo)塊地鎖定在公司數據庫或個人設備上(shàng),無法以Common Crawl允許的規模和(hé)低(dī)成本加以訪問。這(zhè)種數據稀缺對(duì)LLM的進一步發展提出了(le)挑戰。 2023年4月18日,Reddit宣布,它将開(kāi)始對(duì)其API的訪問收費(Isaac, 2023)。這(zhè)一決定是在Twitter對(duì)其API實施類似限制之後做出的(Mehta,2023)。近年來(lái),Reddit的系列聊天成爲谷歌、OpenAI和(hé)微軟等公司的免費教具。這(zhè)些(xiē)公司使用(yòng)Reddit的對(duì)話(huà)來(lái)幫助開(kāi)發巨型人工(gōng)智能(néng)系統。然而現(xiàn)在,Reddit聯合創始人兼首席執行官史蒂夫·赫夫曼(Steve Huffman)稱:“我們不需要把所有這(zhè)些(xiē)價值免費提供給世界上(shàng)最大(dà)的一些(xiē)公司。” 随即,程序員問答(dá)網站(zhàn)Stack Overflow也(yě)宣布将開(kāi)始對(duì)其 API收費。首席執行官普拉桑斯·錢(qián)德拉塞卡爾(Prashanth Chandrasekar)表示:“我們非常支持 Reddit 的做法”,“爲LLM提供動力的社區(qū)平台絕對(duì)應該因其貢獻而得到(dào)補償,這(zhè)樣像我們這(zhè)樣的公司就可以重新注資到(dào)社區(qū),讓其繼續蓬勃發展。”(Dave,2023) Reddit和(hé)Stack Overflow等平台爲微調LLM提供了(le)快(kuài)速訪問具體主題和(hé)問題的寶貴數據,而這(zhè)些(xiē)平台的所有者正意識到(dào)它們所掌握的數據的價值。數據市場日益激烈的競争可能(néng)推動行業走向更少的共享和(hé)更多的貨币化。不幸的是,激進的貨币化将進一步增強能(néng)夠負擔API成本的大(dà)型科技公司的能(néng)力。相應地,小(xiǎo)型實驗室和(hé)資金(jīn)緊張的初創公司将不得不處理(lǐ)手頭可用(yòng)的低(dī)質量數據。 第四,開(kāi)源模型可以成爲大(dà)科技公司封閉服務的替代品 最先進的LLM需要巨大(dà)的計(jì)算(suàn)預算(suàn)和(hé)深厚的機器學習專業知(zhī)識,所以很(hěn)少有機構能(néng)夠從(cóng)頭開(kāi)始訓練它們。然而,那些(xiē)擁有資源和(hé)專業知(zhī)識的機構越來(lái)越多地不開(kāi)放(fàng)模型(無論是數據、源代碼或深度學習的秘方——模型權重)供公衆監督,而是依靠API分發。 這(zhè)就是開(kāi)源人工(gōng)智能(néng)可以介入的地方,它使獲得LLM的機會(huì)民主化。各種社區(qū)平台正在努力創建開(kāi)源的模型,以替代大(dà)科技公司提供的封閉的專有服務。這(zhè)些(xiē)努力是爲了(le)防止少數富有的公司在快(kuài)速增長的生成式人工(gōng)智能(néng)市場上(shàng)擁有過多的權力。 例如,我們開(kāi)始看(kàn)到(dào)Anthropic、Cohere和(hé)Character.ai等公司建立的LLMs更接近OpenAI的性能(néng)水(shuǐ)平,它們在類似的數據集上(shàng)訓練,并采用(yòng)類似的模型架構。“穩定擴散”的例子表明(míng),如果開(kāi)源模型的性能(néng)和(hé)社區(qū)支持達到(dào)了(le)足夠的水(shuǐ)平,那些(xiē)封閉的大(dà)型模型未必能(néng)與其競争。 “穩定擴散”隻需較少的計(jì)算(suàn)能(néng)力就可以工(gōng)作(zuò)。與在OpenAI強大(dà)的服務器上(shàng)運行的DALL-E 2不同,穩定擴散可以在良好(hǎo)的個人電腦(nǎo)上(shàng)運行。創造力的爆發和(hé)新應用(yòng)程序的快(kuài)速發展在很(hěn)大(dà)程度上(shàng)是由于“穩定擴散”:既是開(kāi)源的,程序員可以自(zì)由地改變它,在它的基礎上(shàng)發展,并從(cóng)中賺錢(qián);又足夠輕巧,人們可以在家中運行。 谷歌的一位高(gāo)級軟件工(gōng)程師認爲,不管是OpenAI還是谷歌,在人工(gōng)智能(néng)競賽中都沒有勝算(suàn),構成威脅的“第三派”将是開(kāi)源社區(qū)。開(kāi)源技術開(kāi)發者沒有所有權,他(tā)們将自(zì)己的作(zuò)品發布給任何人,讓他(tā)們根據自(zì)己的需要使用(yòng)、改進或改編。開(kāi)源的曆史例子包括Linux操作(zuò)系統和(hé)LibreOffice,這(zhè)是微軟Office的替代品。 這(zhè)位谷歌工(gōng)程師說,開(kāi)源人工(gōng)智能(néng)開(kāi)發者“已經在搶占先機”,他(tā)舉出的例子包括Meta公司開(kāi)發的大(dà)型開(kāi)源語言模型LLaMA。2023年2月底發布的LLaMA因其優于GPT-3等模型的性能(néng)而立即受到(dào)歡迎,盡管其參數隻有650億(Meta AI, 2023)。7 月 18 日,LlaMa2發布包含了(le) 70 億、130 億和(hé) 700 億參數的模型,它對(duì)于人工(gōng)智能(néng)應用(yòng),就像安卓操作(zuò)系統之于手機APP開(kāi)發一樣,目的就是讓應用(yòng)層開(kāi)發者可以直接以最低(dī)成本獲得大(dà)模型的基礎設施使用(yòng)。有了(le)這(zhè)樣的模型,從(cóng)事(shì)人工(gōng)智能(néng)模型的門(mén)檻已經“從(cóng)某一個主要研究機構的總産出降至一個人、一個晚上(shàng)和(hé)一台強大(dà)的筆(bǐ)記本電腦(nǎo)”。一個LLM現(xiàn)在可以在幾個小(xiǎo)時(shí)内以100美(měi)元的價格進行微調。憑借其快(kuài)速移動、協作(zuò)和(hé)低(dī)成本的模式,開(kāi)源模型有一些(xiē)谷歌或OpenAI無法複制的顯著優勢(Milmo, 2023)。而當免費的或低(dī)價的、不受限制的替代品在質量上(shàng)與封閉的大(dà)型模式不相上(shàng)下(xià)時(shí),人們不會(huì)爲一個設限的人工(gōng)智能(néng)模型付費。 當然,像任何事(shì)情一樣,這(zhè)同時(shí)具有積極和(hé)消極的影響。從(cóng)正面看(kàn),它使少數公司壟斷控制人工(gōng)智能(néng)的可能(néng)性大(dà)大(dà)降低(dī),也(yě)将使獲得人工(gōng)智能(néng)的成本大(dà)大(dà)降低(dī),加速整個領域的創新,并使研究人員更容易分析人工(gōng)智能(néng)系統的行爲(因其對(duì)專有模型的訪問是有限的),提高(gāo)透明(míng)度和(hé)安全性。但(dàn)是,更容易獲得人工(gōng)智能(néng),也(yě)意味着不良行爲者将可以出于自(zì)身的邪惡目的而對(duì)系統進行微調,例如生産虛假信息。這(zhè)将使人工(gōng)智能(néng)更難于監管,因爲精靈已經逃出了(le)瓶子。 大(dà)型語言模型的社會(huì)後果 大(dà)型語言模型已經徹底改變了(le)我們與計(jì)算(suàn)機互動的方式。它們能(néng)夠理(lǐ)解自(zì)然語言并對(duì)複雜(zá)的問題做出反應。随着人工(gōng)智能(néng)驅動的LLMs(如ChatGPT)的發展,它們已經變得越來(lái)越有用(yòng)并走向通用(yòng)。 然而,它們的迅速進展也(yě)不是沒有争議(yì)的。許多人擔心如此強大(dà)的技術所帶來(lái)的反響,憂慮這(zhè)些(xiē)模型可能(néng)被用(yòng)來(lái)操縱信息或替代人類的經驗。爲了(le)充分了(le)解它們的範圍和(hé)力量,探索LLMs如何影響社會(huì)的不同方面非常重要。 鑒于這(zhè)些(xiē)開(kāi)創性的模型的廣泛采用(yòng)所帶來(lái)的巨大(dà)可能(néng)性和(hé)潛在風(fēng)險,社會(huì)已經對(duì)其使用(yòng)産生了(le)不同的反應。例如,在開(kāi)發和(hé)分發這(zhè)些(xiē)模型的源代碼時(shí),是采取開(kāi)源還是閉源方式? 總的來(lái)說,開(kāi)源是指任何人都可以免費使用(yòng)、修改和(hé)發布的源代碼,而閉源是指不能(néng)在創造它的機構之外(wài)修改或發布的專有代碼。在GPT-3之前,大(dà)多數大(dà)型語言模型都是開(kāi)源的,但(dàn)目前,越來(lái)越多的公司将他(tā)們的模型變成閉源的,例如PaLM、LaMDA和(hé)GPT-4。在OpenAI宣布GPT-4模型的文(wén)件中,該公司說它不會(huì)提供關于架構、模型大(dà)小(xiǎo)、硬件、訓練計(jì)算(suàn)、數據構建或用(yòng)于開(kāi)發GPT-4的訓練方法的細節,隻是指出它使用(yòng)了(le)從(cóng)人類反饋中強化學習的方法,聲稱這(zhè)是由于競争和(hé)安全方面的考慮(AI Now Institute, 2023)。 同樣,出于大(dà)型語言模型的競争格局和(hé)安全問題,OpenAI向客戶提供的付費訪問,也(yě)有許多法律和(hé)技術限制。這(zhè)使得學術研究人員更難進行LLM訓練實驗。對(duì)研究界來(lái)說,最直接的問題之一是缺乏透明(míng)度。ChatGPT及其前身的基礎訓練集和(hé)LLMs是不公開(kāi)的,科技公司可能(néng)會(huì)隐瞞其對(duì)話(huà)式AI的内部運作(zuò)。這(zhè)與透明(míng)度和(hé)開(kāi)放(fàng)科學的趨勢背道(dào)而馳。在這(zhè)種情況下(xià),有關人工(gōng)智能(néng)的模型能(néng)力的主張無法被其他(tā)人驗證或複制,客戶也(yě)不可能(néng)下(xià)載ChatGPT背後的模型。 相比之下(xià),開(kāi)源工(gōng)作(zuò)涉及創建一個模型,然後将其發布給任何人,讓他(tā)們根據自(zì)己的需要使用(yòng)、改進或改編。業界推動開(kāi)源LLM的工(gōng)作(zuò),承諾多方合作(zuò)和(hé)權力共享,而這(zhè)正是互聯網的最初理(lǐ)想。它顯示了(le)不同的社區(qū)如何能(néng)夠相互幫助,攜手推進大(dà)型語言模型的下(xià)一步發展。 圍繞着LLMs的另一個關鍵問題是它們的倫理(lǐ)含義。随着這(zhè)些(xiē)系統變得越來(lái)越複雜(zá),有關操縱人類行爲或公衆輿論的問題日益凸顯。此外(wài),LLMs有可能(néng)被用(yòng)作(zuò)惡意行爲者或組織獲取私人數據或傳播虛假信息的工(gōng)具。出于對(duì)偏見和(hé)準确性的擔憂,人們也(yě)擔心它們在醫(yī)療診斷、法律決定甚至政府政策中的使用(yòng)。 “深度僞造”(deepfake),由人工(gōng)智能(néng)創造的圖像和(hé)視(shì)頻,已經在媒體、娛樂和(hé)政治中出現(xiàn)了(le)。在此之前,創造深度僞造的内容需要相當多的計(jì)算(suàn)技能(néng),然而,現(xiàn)在幾乎任何人都能(néng)創造它們。OpenAI已經試圖通過在每張DALL-E 2的圖像上(shàng)“打上(shàng)水(shuǐ)印”來(lái)控制虛假圖像,但(dàn)未來(lái)可能(néng)需要更多的控制手段——特别是當生成式視(shì)頻創作(zuò)成爲主流時(shí)。 生成式人工(gōng)智能(néng)還提出了(le)許多有關何爲原創和(hé)專有内容的問題。由于創建的文(wén)本和(hé)圖像與以前的任何内容都不完全一樣,AI系統供應商認爲人工(gōng)智能(néng)生成内容屬于提示的創造者。但(dàn)它們顯然是用(yòng)于訓練模型的先前文(wén)本和(hé)圖像的衍生品。不用(yòng)說,類似技術将在未來(lái)幾年爲知(zhī)識産權律師提供大(dà)量工(gōng)作(zuò)。 在隐私方面,LLMs本質上(shàng)是個人化的,它收集大(dà)量的用(yòng)戶數據,以便能(néng)夠有效地預測對(duì)話(huà)的長度、主題和(hé)軌迹。此外(wài),每次與 ChatGPT 這(zhè)樣的工(gōng)具的互動都有一個唯一的标識符——有使用(yòng)它的人的登錄軌迹。因此,個人對(duì) ChatGPT 的使用(yòng)并非真正的匿名,這(zhè)就引發了(le)有關 OpenAI 保留敏感數據的問題。圍繞着數據的收集、存儲和(hé)使用(yòng),必須進行一系列的深思熟慮,以便安全地使用(yòng)LLMs。 LLMs與其他(tā)人工(gōng)智能(néng)技術一樣受到(dào)監管和(hé)合規框架的約束,但(dàn)随着它們變得越來(lái)越普遍,可能(néng)會(huì)提出新的問題:如何以符合《通用(yòng)數據保護條例》(GDPR)和(hé)其他(tā)法規的方式使用(yòng)此類工(gōng)具。由于 ChatGPT 處理(lǐ)用(yòng)戶數據以生成響應,OpenAI 或者出于自(zì)身目的而依賴 ChatGPT 的實體可能(néng)被視(shì)爲 GDPR 下(xià)的數據控制者,這(zhè)意味着它們應該獲得處理(lǐ)用(yòng)戶個人數據的合法依據(例如用(yòng)戶的同意),并且必須告知(zhī)用(yòng)戶它們在從(cóng)事(shì)何種由ChatGPT支持的數據處理(lǐ)活動。 所有這(zhè)些(xiē)潛在的問題強調了(le)爲什(shén)麽科學家、研究人員和(hé)其他(tā)使用(yòng)LLMs的人或組織在将其投入實際使用(yòng)之前,從(cóng)多個角度積極審查大(dà)型語言模型的影響是至關重要的。如果深思熟慮地考量倫理(lǐ)方面的影響,再加上(shàng)嚴格的安全措施,大(dà)型語言模型就可以成爲有價值的工(gōng)具,而不會(huì)破壞用(yòng)戶的信任或損害完整性。 此外(wài),雖然大(dà)型語言模型的趨勢仍在繼續,但(dàn)重要的是要注意,更大(dà)并不總是意味着更好(hǎo)。大(dà)型語言模型可以很(hěn)好(hǎo)地進行随心所欲的創造性互動,但(dàn)過去十年的發展告訴我們,大(dà)型深度學習模型是高(gāo)度不可預測的,使模型更大(dà)、更複雜(zá)并不能(néng)解決這(zhè)個問題。 像ChatGPT這(zhè)樣的大(dà)型語言模型,具有與用(yòng)戶進行類似語言交流的能(néng)力,有可能(néng)成爲交流和(hé)教育以及其他(tā)許多領域的強大(dà)工(gōng)具。然而,一方面其對(duì)社會(huì)的影響是巨大(dà)的;另一方面其被濫用(yòng)的可能(néng)性也(yě)是非常真實的。因此,需要更多的研究來(lái)認識大(dà)型語言模型的社會(huì)後果及對(duì)我們生活的影響。随着人工(gōng)智能(néng)和(hé)數據科學越來(lái)越多地融入日常生活中,重要的是要加強這(zhè)類技術的倫理(lǐ)考量,并尊重我們的數據和(hé)隐私賦予我們的個人權利。該領域的領導者必須共同努力,确保大(dà)型語言模型的使用(yòng)是負責任的,符合人類的最佳利益。 大(dà)型語言模型帶來(lái)的交流困境
ChatGPT和(hé)其他(tā)生成式人工(gōng)智能(néng)工(gōng)具正在将有關大(dà)型語言模型的對(duì)話(huà)帶到(dào)公衆關注的最前沿,并且帶着一種前所未有的緊迫感。現(xiàn)在,人們必須就人工(gōng)智能(néng)的未來(lái)是什(shén)麽樣子以及如何創造我們想要的未來(lái)進行交流。
我們需要傳播理(lǐ)論、傳播研究和(hé)基于倫理(lǐ)的傳播實踐來(lái)關注和(hé)指導這(zhè)樣的對(duì)話(huà)。數字人文(wén)學者馬修·科申鮑姆(Matthew Kirschenbaum)預測,即将到(dào)來(lái)的“文(wén)本末日”将導緻“文(wén)本海嘯”,“在任何數字環境中都無法可靠地進行交流”(Kirschenbaum, 2023)。
科申鮑姆所稱的“文(wén)本末日”是指,我們與書面文(wén)字的關系正在發生根本性的變化。通過ChatGPT等程序,所謂的生成式人工(gōng)智能(néng)已經成爲主流,這(zhè)些(xiē)程序使用(yòng)大(dà)型語言模型來(lái)統計(jì)預測序列中的下(xià)一個字母或單詞,從(cóng)而生成模仿其所訓練的文(wén)本内容的句子和(hé)段落。它們爲整個互聯網帶來(lái)了(le)類似自(zì)動完成(autocomplete)的功能(néng)。
目前,人們仍然在爲這(zhè)些(xiē)程序輸入實際的提示信息,同樣,這(zhè)些(xiē)模型(大(dà)部分)仍然是根據人類散文(wén)而不是機器自(zì)制的作(zuò)品進行訓練的。但(dàn)情況可能(néng)會(huì)發生變化——OpenAI發布ChatGPT應用(yòng)程序接口就證明(míng)了(le)這(zhè)一點,它将允許該技術直接集成到(dào)社交媒體和(hé)在線購物等網絡應用(yòng)中(Wiggers,2023)。不難想象,在這(zhè)種情況下(xià),機器可以促使其他(tā)機器無休止地發布文(wén)本,從(cóng)而使互聯網充斥着沒有人類的能(néng)動性或意圖的合成文(wén)本。
2022年6月3日,人工(gōng)智能(néng)研究者兼YouTuber揚尼克·基爾徹(Yannic Kilcher)發布了(le)一段視(shì)頻,介紹他(tā)如何開(kāi)發名爲“GPT-4chan”的人工(gōng)智能(néng)模型,然後部署機器人在著名留言闆4chan上(shàng)僞裝成人類。4chan常被描述爲互聯網亞文(wén)化的中心,其社區(qū)對(duì)知(zhī)名互聯網模型的形成和(hé)普及以及黑客行動和(hé)政治運動具有相當大(dà)的影響力。4chan經常作(zuò)爲争議(yì)來(lái)源而受到(dào)媒體關注,包括協調組織針對(duì)某些(xiē)網站(zhàn)和(hé)用(yòng)戶的惡作(zuò)劇(jù)和(hé)騷擾,以及發布非法和(hé)攻擊性内容。
GPT-4chan是一個大(dà)型語言模型,通過使用(yòng)之前公開(kāi)發布的數據集對(duì)GPT-J進行微調來(lái)模拟4chan的/pol/匿名留言闆用(yòng)戶而創建;其中許多用(yòng)戶經常表達種族主義、白(bái)人至上(shàng)主義、反猶主義、反穆斯林(lín)、厭(yàn)惡女性和(hé)反 LGBT的觀點。基爾徹訓練機器人閱讀了(le)4Chan這(zhè)一臭名昭著的“政治不正确”闆塊3年半時(shí)間内的1.345億條帖子,很(hěn)自(zì)然地,該模型學會(huì)了(le)輸出各種仇恨言論,導緻基爾徹稱其爲“互聯網上(shàng)最可怕的模型”,并在他(tā)的視(shì)頻中這(zhè)樣說道(dào):“這(zhè)個模型很(hěn)好(hǎo),但(dàn)從(cóng)一個可怕的意義上(shàng)來(lái)說……它完美(měi)概括了(le)/pol/上(shàng)大(dà)多數帖子中滲透的攻擊性、虛無主義、惡搞以及對(duì)任何信息的深度不信任。”(Kilcher, 2022)
在訓練完成後,由該模型驅動的10個機器人被部署在/pol/留言闆上(shàng),24小(xiǎo)時(shí)内匿名發布了(le)1.5萬條基本上(shàng)是有毒的信息。雖說許多用(yòng)戶通過留言闆上(shàng)的發帖頻率很(hěn)快(kuài)認定這(zhè)是一個機器人,而基爾徹也(yě)公布了(le)在服務器上(shàng)運行模型所需的代碼和(hé)已訓練的模型實例,并表示人工(gōng)智能(néng)研究人員可以聯系他(tā)獲取機器人與4chan用(yòng)戶的互動記錄,可是他(tā)的做法還是在人工(gōng)智能(néng)研究者社區(qū)内引發了(le)較大(dà)争議(yì)。
GPT-4chan模型發布在Hugging Face上(shàng),這(zhè)是一個共享經過訓練的AI模型的中心。在該模型被下(xià)載了(le)1000餘次後,Hugging Space團隊首先“限制”了(le)對(duì)它的訪問,此後不久,他(tā)們又完全删除了(le)對(duì)它的訪問權限,其頁面現(xiàn)在刊有以下(xià)免責聲明(míng):“已禁用(yòng)對(duì)該模型的訪問——鑒于其研究範圍,在所有禁止使用(yòng)機器人的網站(zhàn)上(shàng)故意使用(yòng)該模型生成有害内容(不完全示例包括:仇恨言論、垃圾郵件生成、假新聞、騷擾和(hé)辱罵、貶低(dī)和(hé)诽謗)被視(shì)爲對(duì)該模型的濫用(yòng)。”(Kurenkov, 2022)
在人工(gōng)智能(néng)研究界,有人認爲這(zhè)樣的模型很(hěn)可能(néng)造成傷害,特别是在面向青少年的論壇中。讓機器人與 4chan 用(yòng)戶互動是不道(dào)德的,它加劇(jù)了(le)4chan本已有毒的回聲室效應并進一步分化了(le)用(yòng)戶群。阿德萊德大(dà)學的人工(gōng)智能(néng)安全研究員勞倫·奧克登-雷納(Lauren Oakden-Rayner)在一條推文(wén)中指責基爾徹“在未告知(zhī)用(yòng)戶、未經同意或監督的情況下(xià)進行人類實驗”,她(tā)認爲這(zhè)違反了(le)人類研究倫理(lǐ)的所有原則(Mellor, 2022)。
基爾徹在接受The Verge采訪時(shí)将該項目描述爲一個“惡作(zuò)劇(jù)”,他(tā)認爲考慮到(dào) 4chan本身的性質,這(zhè)種惡作(zuò)劇(jù)幾乎沒有造成什(shén)麽有害影響。“/pol/上(shàng)完全可以預料到(dào)會(huì)有機器人和(hé)非常粗魯的言談”(Vincent, 2022)。并且,任何潛在的危害也(yě)可以使用(yòng)其他(tā)現(xiàn)有模型來(lái)實現(xiàn)。
的确,基爾徹不會(huì)是第一個、也(yě)不是唯一一個創建惡意的微調模型的人。所以,問題在于,如果出現(xiàn)更多的微調模型,其内容指向在意識形态層面複制一種特定世界觀,會(huì)爲未來(lái)的人類交流帶來(lái)什(shén)麽?
基爾徹創建的機器人非常逼真。“它能(néng)對(duì)上(shàng)下(xià)文(wén)做出反應,并能(néng)連貫地講述在收集最後一次訓練數據很(hěn)久之後發生的事(shì)情和(hé)事(shì)件”,基爾徹在視(shì)頻中稱。以此類推,有人可以建立一個系統,讓ChatGPT這(zhè)樣的程序反複向自(zì)己提問,并自(zì)動将輸出結果發布到(dào)網站(zhàn)或社交媒體上(shàng)。這(zhè)樣無休止地叠代内容流,除了(le)在交流場域造成混亂,它還将被再次吸入大(dà)型語言模型的訓練集,讓模型在互聯網上(shàng)制造自(zì)己的新内容。如果各路人馬——無論是出于廣告收入、政治或意識形态目的還是惡作(zuò)劇(jù)——都開(kāi)始這(zhè)樣做,每天難以數計(jì)的類似帖子充斥在開(kāi)放(fàng)的互聯網上(shàng),與搜索結果混雜(zá)在一起,在社交媒體平台上(shàng)傳播,滲透到(dào)維基百科詞條中,尤其是爲未來(lái)的機器學習系統提供素材,那将會(huì)怎樣?
将基爾徹的工(gōng)作(zuò)與過去最著名的變壞了(le)的機器人的例子相比較是非常有趣的:微軟的Tay。微軟于2016年在 Twitter上(shàng)發布了(le)人工(gōng)智能(néng)聊天機器人,但(dàn)在用(yòng)戶教導Tay重複各種種族主義和(hé)煽動性言論後,不到(dào)24小(xiǎo)時(shí),微軟就被迫下(xià)線該項目(Vincent, 2016)。可 是在那時(shí),創建這(zhè)樣的機器人專屬于大(dà)型科技公司的領域,基爾徹現(xiàn)在的做法表明(míng),任何一人編碼團隊都可以使用(yòng)更先進的人工(gōng)智能(néng)工(gōng)具達成同樣的結果。至于說到(dào)人類研究倫理(lǐ)的指責,如果基爾徹在大(dà)學工(gōng)作(zuò),讓AI機器人在 4chan上(shàng)自(zì)由活動可能(néng)是不道(dào)德的。但(dàn)基爾徹堅稱自(zì)己隻是一名YouTuber,這(zhè)暗示着他(tā)認爲此處适用(yòng)不同的倫理(lǐ)規則。
面對(duì)如此嚴峻的局面,我們該如何應對(duì)?筆(bǐ)者認爲,傳播學可以發揮作(zuò)用(yòng)的領域包括:
讓開(kāi)發者對(duì)人工(gōng)智能(néng)偏見負責。像希瑟·伍茲(Heather S. Woods)和(hé)泰勒·莫蘭(Taylor C. Moran)這(zhè)樣的傳播研究者已經發表了(le)關于人工(gōng)智能(néng)虛拟助手(如Siri和(hé)Alexa)與性别和(hé)種族刻闆印象的重要研究成果,顯示了(le)人工(gōng)智能(néng)是如何反映并重新定義人類偏見和(hé)價值觀的(Woods, 2018;Moran, 2021)。随着生成式人工(gōng)智能(néng)和(hé)新應用(yòng)的引入,這(zhè)一領域還需要更多的研究。研究的目的是喚醒公衆去追究那些(xiē)生産強化此類偏見的人工(gōng)智能(néng)軟件組織的責任。
具體就大(dà)型語言模型而言,一件重要的事(shì)情是幫助制訂發布“基礎性”模型的社區(qū)規範。斯坦福以人爲本人工(gōng)智能(néng)研究院(HAI,Human-Centered AI Institute)和(hé)基礎模型研究中心(CRFM, Center for Research on Foundation Models)就提出,随着基礎模型變得更加強大(dà)和(hé)普遍,負責任發布的問題變得至關重要(Liang, 2022)。而“發布”一詞本身就有不同的内涵:首先是研究訪問,即基礎模型開(kāi)發者令外(wài)部研究人員可以訪問數據、代碼和(hé)模型等資産;而部署到(dào)用(yòng)戶中開(kāi)展測試和(hé)收集反饋,以及以産品形式部署到(dào)最終用(yòng)戶中,則構成了(le)更深入的發布形式。
随着AI技術變得越來(lái)越強大(dà),每個基礎模型開(kāi)發者獨立決定其發布政策的問題凸顯出來(lái)。原因有二:首先,單個行爲者發布不安全、功能(néng)強大(dà)的技術可能(néng)會(huì)對(duì)個人和(hé)社會(huì)造成重大(dà)傷害。即便認爲當今基礎模型的風(fēng)險還沒有嚴重到(dào)有理(lǐ)由限制相對(duì)開(kāi)放(fàng)的發布,然而迅猛的發展速度也(yě)給未來(lái)模型的能(néng)力帶來(lái)了(le)相當大(dà)的不确定性。其次,正因爲基礎模型風(fēng)險的嚴重性尚不明(míng)确,基礎模型開(kāi)發者将從(cóng)分享最佳實踐中獲益,而無需每個組織都“重新發明(míng)輪子”,承擔重新發現(xiàn)某些(xiē)危害的經濟和(hé)社會(huì)成本。此外(wài),加強合作(zuò)和(hé)提高(gāo)透明(míng)度可以解決集體行動問題,即由于快(kuài)速行動的強烈經濟動機,各組織通常對(duì)負責任的人工(gōng)智能(néng)投資不足(Askell et al,2019;胡泳,朱政德,2023)。底線就是,需要社區(qū)規範來(lái)管理(lǐ)基礎模型的發布。在向公衆發布人工(gōng)智能(néng)代碼或模型時(shí),既要考慮這(zhè)樣做的直接影響,也(yě)要考慮其他(tā)人使用(yòng)這(zhè)些(xiē)代碼或模型可能(néng)産生的下(xià)遊影響。
完善把關機制,限制訪問或移除可能(néng)有害的模型和(hé)數據集。随着AI逐漸成爲各類信息和(hé)知(zhī)識的把關人,爲AI系統設置把關人成爲迫切需要。例如,基爾徹使用(yòng)的數據集過去和(hé)現(xiàn)在都是公開(kāi)的,任何人都可以下(xià)載,因此可以想象,擁有人工(gōng)智能(néng)技術的人有可能(néng)會(huì)用(yòng)它來(lái)創建一個以傳播仇恨言論爲目的的機器人。一旦這(zhè)樣的機器人公開(kāi)發布,像本文(wén)中提到(dào)的Hugging Face拔掉下(xià)載插頭的把關行爲就是值得稱許的。
2020年7月,麻省理(lǐ)工(gōng)學院下(xià)線了(le)一個龐大(dà)且被高(gāo)度引用(yòng)的數據集,因爲兩名研究人員發現(xiàn)該數據集使用(yòng)種族主義和(hé)厭(yàn)惡女性的術語來(lái)描述黑人/亞洲人和(hé)女性的圖像。這(zhè)一名爲“8000萬張小(xiǎo)圖像”(80 Million Tiny Images)的訓練集是在2008年創建的,目的是開(kāi)發先進的物體檢測技術。它被用(yòng)來(lái)教授機器學習模型識别靜态圖像中的人和(hé)物體(Quach, 2020)。在技術新聞網站(zhàn)The Register向大(dà)學發出警報(bào)後,麻省理(lǐ)工(gōng)學院删除了(le)數據集,并敦促研究人員和(hé)開(kāi)發人員停止使用(yòng)該訓練庫,并删除所有副本。大(dà)學還在其網站(zhàn)上(shàng)發表了(le)官方聲明(míng)并道(dào)歉(Ustik, 2020)。
這(zhè)種道(dào)德上(shàng)可疑的數據集所造成的損害遠遠超出了(le)不良品位;該數據集被輸入神經網絡,教導它們将圖像與單詞關聯起來(lái)。這(zhè)意味着任何使用(yòng)此類數據集的人工(gōng)智能(néng)模型都在學習種族主義和(hé)性别歧視(shì),而這(zhè)可能(néng)會(huì)導緻帶有性别歧視(shì)或種族主義的聊天機器人、存在種族偏見的軟件,甚至更糟的社會(huì)後果,比如警方使用(yòng)人臉識别系統誤認某人,并因其未曾犯下(xià)的罪行而實施逮捕(Hill, 2020)。
部分問題在于數據集是如何構建的。“8000萬張小(xiǎo)圖像”包含2006年根據 WordNet(一個用(yòng)于計(jì)算(suàn)語言學和(hé)自(zì)然語言處理(lǐ)的英語單詞數據庫)的查詢從(cóng)互聯網上(shàng)抓取的 7930.2017 萬張圖像。據創建者介紹,他(tā)們直接從(cóng)WordNet複制了(le) 5.3萬多個名詞,然後自(zì)動從(cóng)各個搜索引擎下(xià)載與這(zhè)些(xiē)名詞相對(duì)應的圖像。由于WordNet包含貶義術語,用(yòng)戶最終會(huì)得到(dào)無意中證實和(hé)強化刻闆印象及有害偏見的結果(Song, 2020;Kurenkov, 2022)。
另一個有問題的數據集是ImageNet。ImageNet是一個大(dà)型視(shì)覺數據庫,用(yòng)于視(shì)覺對(duì)象識别軟件研究。2019年,在一個名爲ImageNet Roulette的藝術項目顯示數據集當中存在系統性偏見後,ImageNet也(yě)從(cóng)其系統中删除了(le)60萬張照片。不出所料,ImageNet也(yě)是基于WordNet構建的(Ruiz, 2019)。這(zhè)表明(míng)了(le)對(duì)數據集實施把關的必要性,如果不加以控制,它将繼續産生有偏見的算(suàn)法,并爲使用(yòng)它作(zuò)爲訓練集的人工(gōng)智能(néng)模型帶來(lái)偏見。就像計(jì)算(suàn)機科學領域的一句著名習語所說的:垃圾進,垃圾出。
把關機制既包括Hugging Face這(zhè)樣的神經語言編程代碼共享平台,也(yě)包括麻省理(lǐ)工(gōng)學院這(zhè)樣的精英大(dà)學,同時(shí)也(yě)需要The Register這(zhè)樣的技術媒體進行社會(huì)監督。人工(gōng)智能(néng)研究社區(qū)也(yě)要着力培養包容性文(wén)化,建立更符合倫理(lǐ)的數據集,并規範自(zì)身的程序。例如,避免使用(yòng)知(zhī)識共享(Creative Commons)材料,獲得明(míng)确的數據采集同意,并在數據集中加入審計(jì)卡(audit card),允許數據集的管理(lǐ)者公布目标、管理(lǐ)程序、已知(zhī)缺陷和(hé)注意事(shì)項。
一個例證是,模型發布時(shí)應包含有關模型文(wén)檔的模型卡(model card),它是記錄已發布的人工(gōng)智能(néng)模型的預期用(yòng)途和(hé)局限性的好(hǎo)方法,比如GPT-4chan的模型卡就明(míng)确指出了(le)它的仇恨言論傾向,并警告不要部署它。
重新思考内容的生産與傳播。威廉·薩菲爾(William Safire)是20 世紀90年代末最早斷言“内容”(content)将作(zuò)爲獨特的互聯網類别而興起的人之一(Safire,1998),或許也(yě)是第一個指出内容無需與真實性或準确性相關即可實現(xiàn)其基本功能(néng)的人。這(zhè)一基本功能(néng),簡單來(lái)說,就是存在;或者,如凱特·艾希霍恩(Kate Eichhorn)所指出的,内容可以不傳遞任何信息或知(zhī)識,隻是爲了(le)流通而流通(Eichhorn, 2022)。
從(cóng)ICP時(shí)代以來(lái),内容就被放(fàng)置于社會(huì)文(wén)化和(hé)經濟發展中至關重要的位置,在經曆了(le)PGC、UGC、PUGC這(zhè)些(xiē)不同内容模式和(hé)内容經濟之後,内容已經成爲人們日常生活審美(měi)化、藝術化、商品化的重要組成部分。然而在如今風(fēng)起雲湧的AIGC浪潮中,主體和(hé)曆史雙雙迎來(lái)了(le)史無前例的危機,因爲這(zhè)場生成式革命選擇将人類更深層次的編碼能(néng)力和(hé)思維鏈能(néng)力通過訓練交付給機器(胡泳,劉純懿,2023)。當代文(wén)化産業的規範正在朝着書面語言的自(zì)動化和(hé)算(suàn)法優化方向發展。大(dà)量生産低(dī)質量文(wén)章以吸引廣告的内容農(nóng)場使用(yòng)了(le)這(zhè)些(xiē)工(gōng)具,但(dàn)它們仍然依賴大(dà)量的人力将字符串成适當的單詞,将單詞串成清晰的句子,将句子串成連貫的段落。一旦自(zì)動化和(hé)擴大(dà)勞動規模成爲可能(néng),會(huì)出現(xiàn)什(shén)麽動力來(lái)控制這(zhè)種生産呢(ne)?
長期以來(lái),内容的基本範式一直是所謂“讀寫網”(read-write web)。我們不僅消費内容,還可以生産内容,通過編輯、評論和(hé)上(shàng)傳參與網絡的創建。然而我們現(xiàn)在正處于一種“自(zì)書寫網絡”(write-write web)的邊緣:網絡不斷地書寫和(hé)重寫自(zì)身。畢竟,ChatGPT及其同類工(gōng)具可以像寫文(wén)章一樣輕松地編寫代碼。
從(cóng)本質上(shàng)來(lái)說,我們将面臨一場永無止盡的信息垃圾危機,由一種人類和(hé)機器作(zuò)者的脆弱融合體加以催生。從(cóng)芬·布朗頓(Finn Brunton)的《信息垃圾:互聯網的影子曆史》(Spam:A Shadow History of the Internet,2013)一書中,我們可以了(le)解在互聯網上(shàng)傳播虛假内容的五花(huā)八門(mén)的方法。例如“雙面”網站(zhàn),即爲人類讀者設計(jì)的網頁和(hé)爲搜索引擎中的機器人爬蟲優化的網頁同時(shí)并存;搭建整個由自(zì)主内容填充的博客網,以驅動鏈接和(hé)流量;“算(suàn)法新聞”,通過網絡發布自(zì)動報(bào)道(dào);當然還有在2016年美(měi)國大(dà)選和(hé)英國脫歐期間聲名鵲起的僵屍網(botnet)(Brunton, 2013)。形形色色、具有威脅性的信息垃圾告訴我們,網絡的自(zì)我書寫已經持續一段時(shí)間了(le)。今天,随着生成式人工(gōng)智能(néng)開(kāi)始占據主導地位,可以預計(jì),機器生産的文(wén)本将堵塞服務器、通信電纜和(hé)數據中心。
内容生産與傳播的新亂象爲傳播學帶來(lái)了(le)大(dà)量富于挑戰的課題:比如用(yòng)戶生成内容與有報(bào)酬(盡管常常報(bào)酬不足)的工(gōng)人制作(zuò)的内容的區(qū)别;全球底層社會(huì)中的隐形工(gōng)人,他(tā)們讓人工(gōng)智能(néng)看(kàn)起來(lái)很(hěn)“聰明(míng)”,然而自(zì)身卻是受技術負面影響最大(dà)的邊緣化群體;從(cóng)藝術和(hé)文(wén)學到(dào)新聞和(hé)政治,這(zhè)些(xiē)領域如何經受AIGC内容産業崛起的考驗;是否存在某種“内容資本”,即藝術家、作(zuò)家和(hé)表演者制作(zuò)内容的能(néng)力,并不關乎他(tā)們的作(zuò)品,而是和(hé)他(tā)們作(zuò)爲創造者的地位息息相關?
解決人工(gōng)智能(néng)和(hé)傳播的職業問題。喬舒亞·裏夫斯(Joshua Reeves)寫道(dào):“面對(duì)機器冷冰冰的效率,人類似乎隻是潛在錯誤的有機集合。”(Reeves, 2016)OpenAI的研究預測,“80%的美(měi)國勞動力可能(néng)至少有10%的工(gōng)作(zuò)任務會(huì)受到(dào)LLM的影響”。更糟糕的是,“19%的工(gōng)作(zuò)者可能(néng)會(huì)看(kàn)到(dào)至少50%的工(gōng)作(zuò)任務受到(dào)影響”(Eloundou et al, 2023)。公共關系專業人士、文(wén)案撰稿人、平面設計(jì)師、社交媒體營銷人員——這(zhè)些(xiē)都是本科主修傳播學的人的常見職業,也(yě)都可能(néng)受到(dào)快(kuài)速生成文(wén)本和(hé)圖像的生成式人工(gōng)智能(néng)的威脅。傳播學需要研究如何在各種傳播工(gōng)作(zuò)環境中合乎倫理(lǐ)地使用(yòng)人工(gōng)智能(néng)工(gōng)具,也(yě)需要通過專業主義的倡導來(lái)保護這(zhè)些(xiē)職業。
在研究、交流中和(hé)課堂上(shàng)提升人工(gōng)智能(néng)素養。奧特姆·愛德華茲(Autumn Edwards)和(hé)查德·愛德華茲(Chad Edwards)等傳播教育研究者試圖展示人工(gōng)智能(néng)如何改變傳播教學的本質(Edwards, Edwards, 2017)。此外(wài),ChatGPT帶來(lái)的有關考核方式和(hé)學術不誠實的大(dà)量讨論爲傳播學學者提供了(le)一個機會(huì),調查和(hé)挑戰我們對(duì)教學和(hé)學習的假設。我們還應該借鑒傳播學研究中将新媒體技術融入課堂的悠久曆史,确定在哪些(xiē)實踐中使用(yòng)人工(gōng)智能(néng)将有利于促進學生學習和(hé)提高(gāo)教學質量。此外(wài),就像社交媒體和(hé)假新聞的興起要求發展更好(hǎo)的媒介素養一樣,ChatGPT等工(gōng)具要求人工(gōng)智能(néng)素養的培育,傳播學在這(zhè)方面責無旁貸。需要大(dà)力開(kāi)展科學傳播,動員人工(gōng)智能(néng)社區(qū)中更多的研究人員扮演AI傳播者的角色,讓更多的公衆了(le)解AI技術的能(néng)力和(hé)局限性。
最終,回到(dào)傳播學研究本身,是否需要對(duì)傳播學進行重新定位和(hé)重新概念化,以适應日益智能(néng)的機器、自(zì)主決策系統和(hé)智能(néng)設備帶來(lái)的機遇和(hé)挑戰?從(cóng)曆史上(shàng)看(kàn),傳播學通過将創新性突破轉化爲人類互動和(hé)信息交換的媒介來(lái)适應新技術。随着計(jì)算(suàn)機的發展,20世紀下(xià)半葉出現(xiàn)了(le)以計(jì)算(suàn)機爲媒介的交流(CMC)。在CMC研究中,計(jì)算(suàn)機被理(lǐ)解爲或多或少中立的訊息傳輸渠道(dào)和(hé)人類交互工(gōng)具。這(zhè)種形式化忽略了(le)這(zhè)樣一個事(shì)實:與以前的技術進步不同,計(jì)算(suàn)機在今天開(kāi)始占據交流交換參與者的地位。人工(gōng)智能(néng)科學中已經存在不少這(zhè)方面的證據,所以,我們也(yě)許要問:CMC 範式雖然具有不可否認的影響力,但(dàn)是否存在重大(dà)不足,甚至不再站(zhàn)得住腳?相應地,傳播學是否需要重新設計(jì)基本框架,以應對(duì)獨特的技術挑戰及社會(huì)機遇?現(xiàn)在是傳播學認真對(duì)待這(zhè)些(xiē)關鍵問題的時(shí)候了(le)。
盡管人工(gōng)智能(néng)有效地挑戰了(le)當前的範式,将其正常功能(néng)置于某種危機之中,但(dàn)構成新範式的内容現(xiàn)在才剛剛開(kāi)始出現(xiàn)。按照科學史的發展邏輯,這(zhè)些(xiē)創新可能(néng)需要相當長的一段時(shí)間,才能(néng)被定型并編入下(xià)一次被視(shì)爲“正常科學”的叠代中。然而,在當前這(zhè)個初步階段,我們可以開(kāi)始确定,随着人工(gōng)智能(néng)技術的進展,下(xià)一代傳播研究可能(néng)會(huì)是什(shén)麽樣子。
(胡泳:《超越ChatGPT:大(dà)型語言模型的力量與人類交流的困境》,2023年第8期,微信發布系節選,學術引用(yòng)請(qǐng)務必參考原文(wén))