\u003c/p>\u003cp>這種高度模板化、邏輯清晰、層層遞進的表達方式,正是當前 AI 最擅長處理的。當然,這種對他人動機的深度揣測和重新定義,已經(jīng)超出了 AI 基于數(shù)據(jù)生成內(nèi)容的范疇,它是一種帶有強烈主觀判斷和攻擊性的“誅心之論”。這背后,閃爍的是人類在爭斗中才會運用的、復(fù)雜的心理戰(zhàn)術(shù)。\u003c/p>\u003cp>這可能才是整件事里最有趣的部分。\u003c/p>\u003cp>我甚至都能想象,愛康的法務(wù)或公關(guān)團隊首先確定了這次回應(yīng)的核心戰(zhàn)略 —— 即強硬對抗、絕不妥協(xié)、并將事件拔高。\u003c/p>\u003cp>他們可能讓 AI 生成一份聲明草稿,將核心指令——比如需要指責張女士“轉(zhuǎn)嫁責任”——告訴 AI,AI 負責搭建結(jié)構(gòu)、填充那些標準化的法律術(shù)語和官方辭令,從而高效地生成這樣一篇滴水不漏的戰(zhàn)斗檄文。\u003c/p>\u003cp>這些也不是我臆測,使用 PaperPass 做了 AI 查重,重復(fù)率超過 50%,考慮到總共五百多字,而且有部分是描述來龍去脈,重復(fù)率不低了。\u003c/p>\u003cp>\u003cimg class=\"empty_bg\" data-lazyload=\"https://x0.ifengimg.com/res/2025/28A491CB258FB5CCFE1DEA5F11CFF21629B9D7E3_size162_w1000_h722.png\" src=\"data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAAEAAAABAQMAAAAl21bKAAAAA1BMVEXy8vJkA4prAAAACklEQVQI12NgAAAAAgAB4iG8MwAAAABJRU5ErkJggg==\" style=\" width: 640px; height: 462px;\" />\u003c/p>\u003cp>圖片來源:PaperPass 網(wǎng)頁截圖\u003c/p>\u003cp>但問題是,AI 寫的東西,很難讓人信任,這是公關(guān)尤其是危機公關(guān)最忌諱的事情。\u003c/p>\u003cp>因為 AI 的訓練方式——比如強化學習,也因為 AI 的市場需求,它天然不會去得罪人而喜歡討好人,不過寫作原本便是得罪人以及冒犯自己的過程,當然很奇怪,正是因為這樣的冒犯和突破邊界,讀者反而容易信任寫作者。\u003c/p>\u003cp>讀者的信任,從不建立在文字本身,而是建立在對文字背后那個獨一無二的“作者”的信任之上。這份信任由三個要素構(gòu)成:\u003c/p>\u003cp>責任: 人類作者用自己的名字和聲譽為文章背書。如果觀點錯誤,他需要承擔責任。\u003c/p>\u003cp>經(jīng)驗: 我們相信作者的觀點,提煉于他真實的生命體驗。\u003c/p>\u003cp>意圖: 我們相信人類作者有真實的表達意圖。\u003c/p>\u003cp>以上這些,AI 都不具備。AI 沒有人生,它的“觀點”只是對數(shù)據(jù)庫的模仿,是無根之木;AI 也沒有意圖,它只是在執(zhí)行代碼。\u003c/p>\u003cp>因此,讀者對 AI 作品的天然不信任,是因為察覺到,這串流暢的文字背后,沒有一個可信賴的、負責任的、有血有肉的主體。\u003c/p>\u003cp>而危機公關(guān),最需要的就是信任。用一個最無法被信任的工具,去執(zhí)行一件最需要信任的任務(wù),這本身就是一場災(zāi)難。\u003c/p>\u003cp>得承認,AI 是極其趁手的寫作工具,只要你的意圖表達清晰,它就能很高效地完成任務(wù)。不過,一旦人類的方向錯了,AI 只會把這錯誤進一步放大。\u003c/p>\u003cp>我們習慣于將企業(yè)或機構(gòu)想象成一個理性的、以利益最大化為目標的計算機器。但實際上,它是一個由無數(shù)人類神經(jīng)系統(tǒng)構(gòu)成的集合體。當危機來臨,壓力升高,這個集合體的杏仁核就會被集體激活。\u003c/p>\u003cp>理性的人能看到外部情緒,非理性的人只看自己情緒。愛康沒有去看見和安撫客戶的恐懼與公眾的焦慮,而是沉浸在自己被“詆毀”的憤怒中,并基于這種憤怒采取了行動。\u003c/p>\u003cp>危機公關(guān)的最大敵人是非理性,但戰(zhàn)勝它的方法,不是假裝自己沒有情緒,而是在承認情緒的基礎(chǔ)上,憑借成熟的機制和心智,選擇不被情緒駕馭。\u003c/p>\u003cp>非理性的情況下,高層的指令有時候不盡合理,甚至帶有怒氣,但在傳遞過程中,中層管理者會出于職業(yè)素養(yǎng)或人情世故來解讀和“降噪”,底層的執(zhí)行者在措辭時也會本能地回避過于尖銳或不妥的表達。\u003c/p>\u003cp>傳統(tǒng)的人類公關(guān)鏈條中,從高層定調(diào),到中層規(guī)劃,再到下層執(zhí)行,這個過程有些長,而且信息會損耗,也就是一些高層會抱怨的“組織摩擦力”,這往往被看做是組織效率低的原因。\u003c/p>\u003cp>但同樣,它也可以是至關(guān)重要的“安全機制”,如同汽車總需要剎車一樣,確保了決策在執(zhí)行前能被充分地反思、質(zhì)疑和修正。\u003c/p>\u003cp>這個鏈條中的每一個“人”,都像一個保險絲,用自己的人性、同理心和社會經(jīng)驗,消耗和緩沖著指令中那些不合理的部分,防止最原始、最極端的情緒被直接公之于眾。\u003c/p>\u003cp>AI 拆除了所有這些“保險絲”。\u003c/p>\u003cp>它接收到最高指令后,其基于強化學習的目標就是 —— 以最高效率、最優(yōu)化地達成這個指令。如果指令中蘊含的基調(diào)是對抗和攻擊,AI 就會調(diào)動所有資源,去生成一篇最富有對抗性、最具攻擊力的文章,而不會像人一樣去思考“這樣做是否太過了?”或者“這是否會帶來反效果?”。\u003c/p>\u003cp>于是,一個最高決策者的原始沖動,可以在幾乎為零的時間和人力成本下,被直接轉(zhuǎn)化為一個完美的、公開發(fā)布的最終產(chǎn)品。這極大提升了效率,但也極大放大了決策風險。那個曾經(jīng)能讓組織冷靜下來的中間地帶消失了。\u003c/p>\u003cp>同時,AI 也構(gòu)建了一個近乎完美的繭房,在這里你只能聽到自己的回音。\u003c/p>\u003cp>AI 不再是過濾外部信息,而是加工和美化你的“內(nèi)部信息”。你產(chǎn)生一個模糊的想法,一個初步的偏見,一種原始的情緒,AI 可以瞬間將它組織成邏輯嚴密、文采斐然、看似無懈可擊的文本。它把你個人的、主觀的東西,包裝成了客觀、專業(yè)的模樣。\u003c/p>\u003cp>這個繭房最可怕的,不是它“放大”了非理性,而是它“合理化”了非理性。\u003c/p>\u003cp>當一個組織產(chǎn)生非理性的憤怒情緒時,AI 會為這種憤怒引經(jīng)據(jù)典,尋找理論支撐,構(gòu)建邏輯閉環(huán),最終輸出一份“義正詞嚴”的聲明。它讓身處其中的人堅信,自己的非理性情緒,恰恰是最高級的理性。\u003c/p>\u003cp>這比單純的放大要可怕得多,因為它剝奪了人“自我反思”的可能性。當你看到自己最粗糙的情緒,能被包裝得如此精致和正確時,你便會徹底愛上自己的偏見。\u003c/p>\u003cp>危機公關(guān),是公司需要充分運用理性、需要壓上自己信譽的時刻。公司需要證明,自己不僅是一個盈利組織,也是一個愿意擔負責任有血有肉的人,這也是重要公關(guān)需要公司高管露面的原因,因為這時需要人和人的溝通。\u003c/p>\u003cp>愛康國賓,恰恰在這個最需要“人”的時刻,交出了一份最沒有人味兒的答卷,這本身就是一個巨大的諷刺。\u003c/p>\u003cp>但話說回來,這些是 AI 的責任嗎?\u003c/p>\u003cp>我前面說,需要人性來給公司增加一些“摩擦力”,但我們都清楚,在現(xiàn)實的公司里,那種所謂的“人性摩擦力”,到底是什么模樣。\u003c/p>\u003cp>一個壞主意,可能不是被正直的反對聲攔住,而是被一群為了不得罪人而集體妥協(xié)的人,修改成了一個面目全非、但絕對“安全”的平庸之作。\u003c/p>\u003cp>一份由人類委員會寫出來的公關(guān)稿,常常和 AI 一樣沒有靈魂。它的背后,同樣沒有一個獨立的、負責任的“人”,只有一群匿名的、互相推諉的“相關(guān)人士”。\u003c/p>\u003cp>AI 的出現(xiàn),不是創(chuàng)造了一個新問題。它是用一種極端的方式,把一個我們早已熟視無睹的老問題,推到了我們眼前,讓我們再也無法假裝看不見。\u003c/p>\u003cp>這個老問題就是:我們正在貶低“溝通”本身的價值。\u003c/p>\u003cp>我們渴望用一套標準流程,一套萬能模板,一個高效的工具,來一勞永逸地解決所有溝通問題。我們希望溝通是可復(fù)制的,是可預(yù)測的,是不會犯錯的。\u003c/p>\u003cp>我們把溝通,從一種人與人之間充滿不確定性的、建立關(guān)系的艱難過程,變成了一種可以被量化、被管理、被外包的任務(wù)。\u003c/p>\u003cp>《新聞編輯室》告訴我們,你有公關(guān)問題,往往是因為你真的有問題。\u003c/p>\u003cp>愛康國賓的公關(guān)問題,根源不在于它“可能”用了 AI。而在于,它在面對一個需要用盡全部真誠去建立信任的時刻,腦子里想的,依然是遵循老板的意愿,用一套最“正確”、最“安全”、最“專業(yè)”的流程去“處理掉”這件事和這個人。\u003c/p>\u003cp>畢竟,這時候張女士不是一個顧客,不是一個需要溝通的人,而是一個需要解決的麻煩。\u003c/p>\u003cp>溝通,不是發(fā)布信息。溝通,是建立關(guān)系。而建立關(guān)系這件事,從來就沒有捷徑。它注定是笨拙的,是充滿風險的,是需要投入大量時間的。它需要我們放下盔甲,帶著我們?nèi)康娜诵裕ッ鎸α硪粋€活生生的人。\u003c/p>\u003cp>在這個所有人都正依賴輔助駕駛狂奔在高速公路的年代,這才是最后的、也是唯一的緊急剎車系統(tǒng)。\u003c/p>","type":"text"}],"currentPage":0,"pageSize":1},"editorName":"葛瑤","editorCode":"PF216","faceUrl":"http://ishare.ifeng.com/mediaShare/home/1613433/media","vestAccountDetail":{},"subscribe":{"type":"vampire","cateSource":"","isShowSign":0,"parentid":"0","parentname":"科技","cateid":"1613433","catename":"茶飲消息","logo":"https://x0.ifengimg.com/ucms/2024_34/3BA3D45D7EE263A8AAE70FF35CF301EFFCE3B10F_size17_w200_h200.jpg","description":"關(guān)注新茶飲行業(yè)趨勢,了解各品牌產(chǎn)品上新信息。","api":"http://api.3g.ifeng.com/api_wemedia_list?cid=1613433","share_url":"https://share.iclient.ifeng.com/share_zmt_home?tag=home&cid=1613433","eAccountId":1613433,"status":1,"honorName":"","honorImg":"","honorImg_night":"","forbidFollow":0,"forbidJump":0,"fhtId":"","view":1,"sourceFrom":"","declare":"","originalName":"","redirectTab":"article","authorUrl":"https://ishare.ifeng.com/mediaShare/home/1613433/media","newsTime":"2025-07-31 08:58:04","lastArticleAddress":"來自北京市"},"filterMediaList":[{"name":"鳳凰網(wǎng)財經(jīng)","id":"607286"},{"name":"國際財聞匯","id":"1609082"},{"name":"銀行財眼","id":"1444240"},{"name":"公司研究院","id":"1612328"},{"name":"IPO觀察哨","id":"1601888"},{"name":"風暴眼","id":"1601889"},{"name":"出海研究局","id":"1613468"},{"name":"封面","id":"540061"},{"name":"前行者","id":"1580509"},{"name":"凰家反騙局","id":"1596037"},{"name":"康主編","id":"1535116"},{"name":"啟陽路4號","id":"1021158"},{"name":"財經(jīng)連環(huán)話","id":"7518"}]},"keywords":"ai,指令,公關(guān),危機公關(guān),愛康國賓,情緒,意圖,摩擦力,人性,理性","safeLevel":0,"isCloseAlgRec":false,"interact":{"isCloseShare":false,"isCloseLike":false,"isOpenCandle":false,"isOpenpray":false,"isCloseFhhCopyright":false},"hasCopyRight":false,"sourceReason":"","__nd__":"ne883dbn.ifeng.com","__cd__":"c01049em.ifeng.com"};
var adKeys = ["adHead","adBody","topAd","logoAd","topicAd","contentAd","articleBottomAd","infoAd","hardAd","serviceAd","contentBottomAd","commentAd","commentBottomAd","articleAd","videoAd","asideAd1","asideAd2","asideAd3","asideAd4","asideAd5","asideAd6","bottomAd","floatAd1","floatAd2"];
var __apiReport = (Math.random() > 0.99);
var __apiReportMaxCount = 50;
for (var i = 0,len = adKeys.length; i 本文來自微信公眾號:灑家君澤,作者:灑家君澤 張女士新近查出了癌癥,她說自己連續(xù)十年在愛康國賓體檢,你們沒查出我的癌癥。于是她說愛康國賓是假體檢。 張女士很憤怒,愛康國賓也更憤怒。他們沒有道歉,沒有安撫,而是召開了發(fā)布會,來表達自己的怒火,并且起訴了客戶。 愛康國賓 CEO 在發(fā)布會上,說了句“不要指望幾百塊的體檢能查出所有的病”,成了輿論焦點。 我倒是覺得,他們在公眾號上的聲明更有意思,讀完之后,我第一個念頭:這是 AI 寫的。 尤其是這一段: 這種高度模板化、邏輯清晰、層層遞進的表達方式,正是當前 AI 最擅長處理的。當然,這種對他人動機的深度揣測和重新定義,已經(jīng)超出了 AI 基于數(shù)據(jù)生成內(nèi)容的范疇,它是一種帶有強烈主觀判斷和攻擊性的“誅心之論”。這背后,閃爍的是人類在爭斗中才會運用的、復(fù)雜的心理戰(zhàn)術(shù)。 這可能才是整件事里最有趣的部分。 我甚至都能想象,愛康的法務(wù)或公關(guān)團隊首先確定了這次回應(yīng)的核心戰(zhàn)略 —— 即強硬對抗、絕不妥協(xié)、并將事件拔高。 他們可能讓 AI 生成一份聲明草稿,將核心指令——比如需要指責張女士“轉(zhuǎn)嫁責任”——告訴 AI,AI 負責搭建結(jié)構(gòu)、填充那些標準化的法律術(shù)語和官方辭令,從而高效地生成這樣一篇滴水不漏的戰(zhàn)斗檄文。 這些也不是我臆測,使用 PaperPass 做了 AI 查重,重復(fù)率超過 50%,考慮到總共五百多字,而且有部分是描述來龍去脈,重復(fù)率不低了。 圖片來源:PaperPass 網(wǎng)頁截圖 但問題是,AI 寫的東西,很難讓人信任,這是公關(guān)尤其是危機公關(guān)最忌諱的事情。 因為 AI 的訓練方式——比如強化學習,也因為 AI 的市場需求,它天然不會去得罪人而喜歡討好人,不過寫作原本便是得罪人以及冒犯自己的過程,當然很奇怪,正是因為這樣的冒犯和突破邊界,讀者反而容易信任寫作者。 讀者的信任,從不建立在文字本身,而是建立在對文字背后那個獨一無二的“作者”的信任之上。這份信任由三個要素構(gòu)成: 責任: 人類作者用自己的名字和聲譽為文章背書。如果觀點錯誤,他需要承擔責任。 經(jīng)驗: 我們相信作者的觀點,提煉于他真實的生命體驗。 意圖: 我們相信人類作者有真實的表達意圖。 以上這些,AI 都不具備。AI 沒有人生,它的“觀點”只是對數(shù)據(jù)庫的模仿,是無根之木;AI 也沒有意圖,它只是在執(zhí)行代碼。 因此,讀者對 AI 作品的天然不信任,是因為察覺到,這串流暢的文字背后,沒有一個可信賴的、負責任的、有血有肉的主體。 而危機公關(guān),最需要的就是信任。用一個最無法被信任的工具,去執(zhí)行一件最需要信任的任務(wù),這本身就是一場災(zāi)難。 得承認,AI 是極其趁手的寫作工具,只要你的意圖表達清晰,它就能很高效地完成任務(wù)。不過,一旦人類的方向錯了,AI 只會把這錯誤進一步放大。 我們習慣于將企業(yè)或機構(gòu)想象成一個理性的、以利益最大化為目標的計算機器。但實際上,它是一個由無數(shù)人類神經(jīng)系統(tǒng)構(gòu)成的集合體。當危機來臨,壓力升高,這個集合體的杏仁核就會被集體激活。 理性的人能看到外部情緒,非理性的人只看自己情緒。愛康沒有去看見和安撫客戶的恐懼與公眾的焦慮,而是沉浸在自己被“詆毀”的憤怒中,并基于這種憤怒采取了行動。 危機公關(guān)的最大敵人是非理性,但戰(zhàn)勝它的方法,不是假裝自己沒有情緒,而是在承認情緒的基礎(chǔ)上,憑借成熟的機制和心智,選擇不被情緒駕馭。 非理性的情況下,高層的指令有時候不盡合理,甚至帶有怒氣,但在傳遞過程中,中層管理者會出于職業(yè)素養(yǎng)或人情世故來解讀和“降噪”,底層的執(zhí)行者在措辭時也會本能地回避過于尖銳或不妥的表達。 傳統(tǒng)的人類公關(guān)鏈條中,從高層定調(diào),到中層規(guī)劃,再到下層執(zhí)行,這個過程有些長,而且信息會損耗,也就是一些高層會抱怨的“組織摩擦力”,這往往被看做是組織效率低的原因。 但同樣,它也可以是至關(guān)重要的“安全機制”,如同汽車總需要剎車一樣,確保了決策在執(zhí)行前能被充分地反思、質(zhì)疑和修正。 這個鏈條中的每一個“人”,都像一個保險絲,用自己的人性、同理心和社會經(jīng)驗,消耗和緩沖著指令中那些不合理的部分,防止最原始、最極端的情緒被直接公之于眾。 AI 拆除了所有這些“保險絲”。 它接收到最高指令后,其基于強化學習的目標就是 —— 以最高效率、最優(yōu)化地達成這個指令。如果指令中蘊含的基調(diào)是對抗和攻擊,AI 就會調(diào)動所有資源,去生成一篇最富有對抗性、最具攻擊力的文章,而不會像人一樣去思考“這樣做是否太過了?”或者“這是否會帶來反效果?”。 于是,一個最高決策者的原始沖動,可以在幾乎為零的時間和人力成本下,被直接轉(zhuǎn)化為一個完美的、公開發(fā)布的最終產(chǎn)品。這極大提升了效率,但也極大放大了決策風險。那個曾經(jīng)能讓組織冷靜下來的中間地帶消失了。 同時,AI 也構(gòu)建了一個近乎完美的繭房,在這里你只能聽到自己的回音。 AI 不再是過濾外部信息,而是加工和美化你的“內(nèi)部信息”。你產(chǎn)生一個模糊的想法,一個初步的偏見,一種原始的情緒,AI 可以瞬間將它組織成邏輯嚴密、文采斐然、看似無懈可擊的文本。它把你個人的、主觀的東西,包裝成了客觀、專業(yè)的模樣。 這個繭房最可怕的,不是它“放大”了非理性,而是它“合理化”了非理性。 當一個組織產(chǎn)生非理性的憤怒情緒時,AI 會為這種憤怒引經(jīng)據(jù)典,尋找理論支撐,構(gòu)建邏輯閉環(huán),最終輸出一份“義正詞嚴”的聲明。它讓身處其中的人堅信,自己的非理性情緒,恰恰是最高級的理性。 這比單純的放大要可怕得多,因為它剝奪了人“自我反思”的可能性。當你看到自己最粗糙的情緒,能被包裝得如此精致和正確時,你便會徹底愛上自己的偏見。 危機公關(guān),是公司需要充分運用理性、需要壓上自己信譽的時刻。公司需要證明,自己不僅是一個盈利組織,也是一個愿意擔負責任有血有肉的人,這也是重要公關(guān)需要公司高管露面的原因,因為這時需要人和人的溝通。 愛康國賓,恰恰在這個最需要“人”的時刻,交出了一份最沒有人味兒的答卷,這本身就是一個巨大的諷刺。 但話說回來,這些是 AI 的責任嗎? 我前面說,需要人性來給公司增加一些“摩擦力”,但我們都清楚,在現(xiàn)實的公司里,那種所謂的“人性摩擦力”,到底是什么模樣。 一個壞主意,可能不是被正直的反對聲攔住,而是被一群為了不得罪人而集體妥協(xié)的人,修改成了一個面目全非、但絕對“安全”的平庸之作。 一份由人類委員會寫出來的公關(guān)稿,常常和 AI 一樣沒有靈魂。它的背后,同樣沒有一個獨立的、負責任的“人”,只有一群匿名的、互相推諉的“相關(guān)人士”。 AI 的出現(xiàn),不是創(chuàng)造了一個新問題。它是用一種極端的方式,把一個我們早已熟視無睹的老問題,推到了我們眼前,讓我們再也無法假裝看不見。 這個老問題就是:我們正在貶低“溝通”本身的價值。 我們渴望用一套標準流程,一套萬能模板,一個高效的工具,來一勞永逸地解決所有溝通問題。我們希望溝通是可復(fù)制的,是可預(yù)測的,是不會犯錯的。 我們把溝通,從一種人與人之間充滿不確定性的、建立關(guān)系的艱難過程,變成了一種可以被量化、被管理、被外包的任務(wù)。 《新聞編輯室》告訴我們,你有公關(guān)問題,往往是因為你真的有問題。 愛康國賓的公關(guān)問題,根源不在于它“可能”用了 AI。而在于,它在面對一個需要用盡全部真誠去建立信任的時刻,腦子里想的,依然是遵循老板的意愿,用一套最“正確”、最“安全”、最“專業(yè)”的流程去“處理掉”這件事和這個人。 畢竟,這時候張女士不是一個顧客,不是一個需要溝通的人,而是一個需要解決的麻煩。 溝通,不是發(fā)布信息。溝通,是建立關(guān)系。而建立關(guān)系這件事,從來就沒有捷徑。它注定是笨拙的,是充滿風險的,是需要投入大量時間的。它需要我們放下盔甲,帶著我們?nèi)康娜诵裕ッ鎸α硪粋€活生生的人。 在這個所有人都正依賴輔助駕駛狂奔在高速公路的年代,這才是最后的、也是唯一的緊急剎車系統(tǒng)。致愛康國賓:危機公關(guān)時不要用 AI 寫稿