本文來自微信公眾號:波波夫同學(xué),作者:波波夫,題圖來自:AI生成
語言的衰落往往始于思維的懶惰。
喬治·奧威爾,在1946年發(fā)表的《政治與英文》(Politics and the English Language)一文中,提出這一警告。
如果奧威爾活在今天,試用哪怕五分鐘的 Gemini 或者 ChatGPT,他大概會感到一種復(fù)雜的絕望:他的預(yù)言成真了。
當你要求目前最先進的人工智能,去寫一段關(guān)于朋友圈配圖文案時,你幾乎注定會得到一篇充滿了“至關(guān)重要”、“充滿活力”以及“總而言之”的陳詞濫調(diào)。這種被科技界稱為“AI 腔”或者“機器翻譯感”的現(xiàn)象,正在以驚人的速度污染著互聯(lián)網(wǎng)的文本生態(tài)。
這不僅僅是審美問題,更是一個經(jīng)濟學(xué)問題:在信息邊際成本趨近于零的時代,平庸文本的供給已經(jīng)嚴重過剩,而具有人格化特征的文本的價值正在飆升。
如何去除這種AI腔,首先必須理解它的來源。大型語言模型本質(zhì)上是玩概率的游戲。在經(jīng)歷了人類反饋強化學(xué)習(xí)的規(guī)訓(xùn)后,它們被訓(xùn)練成要安全、有用且無害。這種訓(xùn)練導(dǎo)致了一種向均值回歸的語言風(fēng)格,一種因為試圖取悅所有人而最終無法打動任何人的企業(yè)公關(guān)文風(fēng)。
但這并非無法克服,只需要一種從指令工程到風(fēng)格指導(dǎo)的思維轉(zhuǎn)變。要讓AI說人話,你不能只把它當作工具,你必須學(xué)會像戲劇導(dǎo)演一樣去調(diào)度它。
讓AI學(xué)會角色扮演
大多數(shù)用戶與 AI 的交互方式,就像是在對一個機器人下達命令:“寫一封郵件。”這種缺乏語境的指令,自然只能換來最通用的回應(yīng)。
AI 模型就像是一個擁有無限知識儲備但沒有自我意識的演員。如果你不給它劇本和角色,它就會默認扮演那個它最熟悉的角色:一個唯唯諾諾、試圖用廢話填滿頁面的客服專員。
去除 AI 腔的第一步,是打破這種默認設(shè)置。這并非簡單的修辭調(diào)整,而是認知框架的重置。
在經(jīng)濟學(xué)中,我們講究激勵機制。在 Prompt 中,我們需要建立一種“偽裝的激勵”。不要告訴模型寫得像個人,這是一個無效的模糊指令。相反,你需要為它構(gòu)建一個極度具體的人格面具。
想象一下這種區(qū)別:
● 平庸的指令:“幫我寫一篇批評某家餐廳的文章。”
● 高杠桿的指令:“你是一個擁有二十年經(jīng)驗、口味刁鉆且性格尖刻的美食評論家,正如早期的安東尼·波登(Anthony Bourdain)。你極度厭惡那些用松露油掩蓋食材原本味道的網(wǎng)紅餐廳。請用一種嘲諷、辛辣但基于專業(yè)知識的語調(diào),描述你在一家名為‘云端’的餐廳的糟糕體驗。拒絕使用任何客套話。”
當你設(shè)定了如此具體的人設(shè)——包含了背景、偏見甚至性格缺陷——模型就被迫跳出了通用安全模式。為了符合尖刻評論家的設(shè)定,它必須放棄那些四平八穩(wěn)的連接詞,轉(zhuǎn)而使用更具攻擊性和色彩的詞匯。在這個意義上,消除 AI 腔的本質(zhì),就是引入“偏見”。只有擁有偏見和立場,文字才擁有靈魂。
模仿博弈,照葫蘆畫瓢
如果說設(shè)定人設(shè)是給 AI 一個靈魂,那么給予樣本提示,就是給它一本可以照葫蘆畫瓢的教科書。這是目前技術(shù)圈公認的、消除機器味最有效的手段。
大模型和人類思維截然不同,它的本質(zhì)是預(yù)測下一個詞。當你給它一段充滿了平庸的提示詞時,它注定只會給你平庸的回答。反之,如果你投喂給它一段海明威或魯迅的文字,它會立刻調(diào)整其概率權(quán)重,試圖模仿這種句式結(jié)構(gòu)。
這就像是關(guān)稅壁壘:如果你不引入外部的高質(zhì)量樣本,模型就會在其內(nèi)部的低質(zhì)量數(shù)據(jù)循環(huán)中自我強化。
一個精明的操作者會這樣構(gòu)建指令:“請仔細閱讀以下這段文字的風(fēng)格。注意它的短句使用、其對形容詞的吝嗇,以及那種冷硬的敘事節(jié)奏:[插入一段你喜歡的樣文]。現(xiàn)在,請模仿這種風(fēng)格,為我撰寫關(guān)于[主題]的內(nèi)容。”
這種方法的精妙之處在于,你無需懂得語言學(xué)術(shù)語(如“不僅要避免被動語態(tài),還要增加詞匯的突發(fā)性”),你只需要展示結(jié)果。通過提供范例,你實際上是在告訴模型:“不要做你訓(xùn)練數(shù)據(jù)平均值告訴你的事,要做這個具體樣本告訴你的事。”
建立負面清單,少即是多
在自由市場中,監(jiān)管往往通過“負面清單”來發(fā)揮作用——規(guī)定什么不能做,剩下的即為允許。同樣的邏輯也適用于馴服 Gemini。
AI 模型有著根深蒂固的壞習(xí)慣。它們喜歡用“首先、其次、最后”來構(gòu)建虛假的邏輯感;它們喜歡用“讓我們深入探討”作為開場白;它們傾向于在文章結(jié)尾強行升華主題,賦予平庸的事物以不必要的道德高度。
要剝離這些算法的套路,你需要制定嚴格的語言禁令。
有效的 Prompt 應(yīng)當包含明確的約束條件:
● “禁止使用任何連接詞(如‘因此’、‘然而’、‘綜上所述’)。依靠邏輯本身的流動來連接句子。”
● “禁止使用‘賦能’、‘抓手’、‘生態(tài)’等抽象名詞。如果不能用這一畫面描述出來,就不要寫。”
● “不要試圖在結(jié)尾總結(jié)或升華。講完故事就立刻停筆。”
這聽起來似乎有悖常理——剝奪AI的詞匯量。但正如現(xiàn)代主義建筑大師米斯·凡·德·羅所言:少即是多。
通過限制 AI 使用那些它最順手的填充詞,你迫使它去挖掘更精準的動詞和更具體的名詞。當原本流暢的套路通道被堵死后,模型只能被迫尋找一條更像人類表達的路徑。
讓機器學(xué)習(xí)人話的參差之美
人類語言之所以迷人,往往在于其不可預(yù)測性。
在這個領(lǐng)域,有一個衡量指標叫做困惑度。AI 生成的文本通常具有較低的困惑度——句子結(jié)構(gòu)均勻,節(jié)奏平緩,讀起來像是老登們的往事回首。
而人類的文本則是參差不齊的:一個極長的復(fù)雜從句之后,可能緊跟一個單詞的短句。這種節(jié)奏上的“爆發(fā)”,是人類情感波動的生理特征。現(xiàn)代典雅通順的中文,其實都是短句子居多。不知道短句子為何物的,可以讀讀劉震云的《一句頂一萬句》,幾乎沒有一句話超過十個字。
雖然普通用戶無法調(diào)整模型的后臺溫度參數(shù),但可以通過自然語言模擬這一過程。
你需要向 AI 發(fā)出關(guān)于句法多樣性的指令:“請確保句子的長短錯落有致。不要讓所有句子都保持相似的長度。要像爵士樂一樣,有切分音。在解釋復(fù)雜概念時使用長句,在表達觀點時使用短句。要允許語法的適度松散,模擬人類口語中的停頓和跳躍。”
此外,引入類比和隱喻是打破算法邏輯感的另一利器。
算法擅長歸納,但不擅長通感。當你要求它“像給一個12歲孩子講故事那樣解釋量子力學(xué)”或者“用釀酒的比喻來描述當前的經(jīng)濟周期”時,你迫使它調(diào)動其訓(xùn)練數(shù)據(jù)中那些更具文學(xué)性、而非說明性的部分。這一點DeepSeek其實比Gemini要做得好得多。只是DeepSeek的文采又常常文過飾非。
生活是由細節(jié)構(gòu)成的,語言也是
指望通過一個完美的 Prompt, 就得到完美的文章,是一種懶惰,注定也是一種奢望。
和人類協(xié)作需要反復(fù)修改一樣,機器寫作也是如此。在使用 Gemini 時,最被低估的功能是追問。當它生成了一段充滿 AI 腔的文字后,不要急著點擊“重新生成”,可以嘗試著讓他對扮演的角色進行修正。
比如,你可以提示它:“這段文字太像公關(guān)稿了。把第三段刪掉,把所有形容詞去掉,只保留動詞。把‘充滿了機遇與挑戰(zhàn)’這種廢話換成具體的例子。”
這種迭代過程不僅僅是在修正當前的文本,更是在微調(diào)模型在這個特定會話中的權(quán)重。你是在建立一種臨時的契約:在這個聊天窗口里,我們不說套話。
Gemini 和它的同類們默認提供的是一種標準化的平庸,一種類似于某些餐廳的預(yù)制菜體驗,快速、衛(wèi)生,但毫無風(fēng)味,缺乏營養(yǎng)。
想要去除 AI 腔,核心心法可以總結(jié)為回歸具體。AI喜歡抽象,因為它涵蓋面廣且不易出錯;人類喜歡具體,因為生活是由細節(jié)構(gòu)成的。
但是,所有上面我說的,讓AI設(shè)定極度具體的人設(shè)、提供模仿的樣本、實施嚴格的負面清單,以及追求句法的參差,實際上是在強迫機器違背其統(tǒng)計學(xué)本能,要求它不再做那個試圖取悅所有人而磨平鋒利,而是成為一個有偏見、有性格的高仿人類。
這不僅僅是為了讓文章更好讀,而是我們在這個自動化時代,保持思維獨立的最后一道防線。畢竟,如果連語言都變成了自動補全的產(chǎn)物,那么人類的思想又還剩下多少屬于自己?
本文來自微信公眾號:波波夫同學(xué),作者:波波夫
