\u003c/p>\u003cp>十二年前,《人類簡史:從動物到上帝》一書出版,立刻風行全球,暢銷多年。十二年后,尤瓦爾·赫拉利攜著新書《智人之上》前來,這一次,他要探討和思考的,是這個被算法和平臺裹挾,被人工智能隱隱威脅到的、全新的大變局時代,這個時代背后的歷史邏輯,以及最終人類社會將走向何處。\u003c/p>\u003cp>近日,鳳凰網財經《封面》與尤瓦爾·赫拉利展開了一場深度采訪,圍繞人工智能會不會最終顛覆人類的碳基世界,算法和信息繭房對人類社會的隔絕危害等展開了問答。\u003c/p>\u003cp>\u003cstrong>信息大爆炸時代 我們需要信息節食\u003c/strong>\u003c/p>\u003cp>尤瓦爾·赫拉利指出,在過去信息是稀缺的,所以我們接受我們能得到的任何信息。現在我們被太多的信息淹沒了,還有很多垃圾信息。垃圾信息被人為地注入了貪婪、仇恨和恐懼,這些東西吸引了我們的注意力。所有這些垃圾信息讓我們的心智病態。\u003c/p>\u003cp>尤瓦爾·赫拉利表示,為了保護我們的心理和社會健康,我們需要進行一種信息節食,類似于許多人所做的飲食上的節制。信息節食的第一步是限制我們/接受的信息量。第二步是避免那些被人為灌輸了貪婪、仇恨和恐懼的垃圾信息。最后,偶爾進行信息齋戒也是有益的。\u003c/p>\u003cp>尤瓦爾·赫拉利透露,他個人“每年都會進行幾周的冥想靜修,我練習內觀禪修,在禪修期間,我完全斷開了和外界的聯系。我不看新聞,不讀電子郵件,不讀書也不寫書——我只冥想。我花時間消化我頭腦中已經包含的東西,而不是往里面塞更多的信息。”\u003c/p>\u003cp>\u003cstrong>我們正在失去就任何事情達成一致的能力\u003c/strong>\u003c/p>\u003cp>尤瓦爾·赫拉利指出,最初信息技術將人類連接在一起,但現在信息大爆炸以后,信息技術開始使人類分裂,使人與人疏遠。我們擁有歷史上最先進的信息技術,但我們正在失去就任何事情達成一致的能力。人們被大量的垃圾信息、假新聞和陰謀論淹沒,因此他們與現實脫節。在互聯網的早期,占主導地位的比喻是“網絡”——將所有人聯系在一起的東西。但現在看來,一個更好的比喻是繭房。人們被封閉在單獨的信息繭房中,無法與繭房外的人交流。\u003c/p>\u003cp>尤瓦爾·赫拉利呼吁,為了打破繭房,保持人類團結,我們需要寄希望于強大的自我糾正機制。這些是識別、承認和糾正錯誤的機制。\u003c/p>\u003cp>\u003cstrong>人工智能比核武器更危險嗎?尤瓦爾:我更擔心另一種情況\u003c/strong>\u003c/p>\u003cp>針對人工是否比核武器更危險的問題,尤瓦爾·赫拉利表示,核武器的風險從一開始就顯而易見。只有一種非常危險的情況——核戰爭,每個人都能輕易想象。有了人工智能,一些危險的場景也很容易想象。例如,如果某個暴君讓人工智能控制其國家的核武器,然后人工智能犯了一個災難性的錯誤,會發生什么?或者,如果恐怖分子利用人工智能制造一種新病毒,引發一場大流行/瘟疫,會發生什么?\u003c/p>\u003cp>然而,人工智能也存在許多難以想象和預測的危險場景。產生這種威脅是人工智能的本質,因為人工智能有能力自己做決定,自己發明新想法。最初的確是人類工程師設計了人工智能,但人工智能可以自己學習和改變,并開始做人類工程師沒有預料到的事情。如果一個計算機程序不能自己學習和改變,它就不是人工智能。\u003c/p>\u003cp>尤瓦爾·赫拉利指出,當數以百萬計的非人類代理人開始做與我們相關的決定,并創造新事物——從新藥到新武器,從新藝術品到新貨幣——我們的社會將會發生什么?我不害怕科幻小說中的場景,比如一臺電腦決定殺死所有的人類并接管世界。這是極不可能的。相反,我擔心的是由數百萬人工智能管理的新帝國的崛起,它們將能夠消滅隱私,隨時監控每個人,并為了一小部分精英的利益而剝削大部分人。\u003c/p>\u003cp>\u003cstrong>糟糕的算法應該受到相應的監管\u003c/strong>\u003c/p>\u003cp>尤瓦爾·赫拉利指出:“糟糕的算法對人類的危害可能與有毒食品、劣質藥品和不安全的汽車一樣,它們應該受到相應的監管。”\u003c/p>\u003cp>他以汽車工業為例,當汽車公司決定生產一種新車型時,他們在安全方面投入了預算的很大一部分。他們確保剎車和安全帶正常工作,確保汽車在潮濕的道路上不會打滑,如果發生事故,汽車會保護乘客,不會輕易爆炸。如果汽車公司忽視了安全問題,消費者可以起訴它,要求賠償損失,政府可以阻止它銷售不安全的汽車。政府甚至還可以監管安全的汽車。有許多法律限制汽車的行駛區域和速度。\u003c/p>\u003cp>尤瓦爾·赫拉利表示,同樣的標準也應該適用于算法。當一個公司生產出一個強大的新算法時,也許所有研究預算的20%必須用于確保該算法不會對人們造成任何社會或心理傷害。政府應該規范如何使用安全的算法。目前的情況是,公司在沒有任何安全檢查和規定的情況下向公眾領域發布他們喜歡的任何算法,這是不可接受的。\u003c/p>\u003cp>\u003cstrong>以下為完整問答:\u003c/strong>\u003c/p>\u003cp>\u003cstrong>1\u003c/strong>\u003cstrong>、在信息爆炸的時代,問題不是信息太少,而是信息太多。有時,人們可能會感到焦慮。信息過載對人類到底意味著什么?\u003c/strong>\u003c/p>\u003cp>為了理解信息爆炸,讓我們把它比作食物。100年前食物匱乏,人類吃他們能找到的任何東西,特別喜歡含有大量脂肪和糖的食物。今天食物豐富,我們被人工制造的高脂肪和高糖的垃圾食品淹沒了。如果人們繼續吃他們找到的所有食物,特別是垃圾食品,他們就會生病。信息也是如此,它是心智的食物。在過去信息是稀缺的,所以我們接受我們能得到的任何信息。現在我們被太多的信息淹沒了,還有很多垃圾信息。垃圾信息被人為地注入了貪婪、仇恨和恐懼,這些東西吸引了我們的注意力。所有這些垃圾信息讓我們的心智病態。\u003c/p>\u003cp>為了保護我們的心理和社會健康,我們需要進行一種信息節食,類似于許多人所做的飲食上的節制。信息節食的第一步是限制我們消耗的信息量。第二步是避免那些被人為灌輸了貪婪、仇恨和恐懼的垃圾信息。最后,偶爾進行信息齋戒也是有益的。我個人每年都會進行幾周的冥想靜修,我練習內觀禪修,在禪修期間,我完全斷開了和外界的聯系。我不看新聞,不讀電子郵件,不讀書也不寫書——我只冥想。我花時間消化我頭腦中已經包含的東西,而不是往里面塞更多的信息。幾個星期對大多數人來說都太久了。但偶爾一兩天的信息輕斷食可能對每個人都有好處。你不需要去靜修,在遠足時,把你的智能手機關機也會很好。\u003c/p>\u003cp>\u003cstrong>2\u003c/strong>\u003cstrong>、此外,在這個信息爆炸的時代,\u003c/strong>\u003cstrong>“\u003c/strong>\u003cstrong>信息繭房\u003c/strong>\u003cstrong>”\u003c/strong>\u003cstrong>的概念變得更加突出。我們如何解決這個問題?有人認為,\u003c/strong>\u003cstrong>“\u003c/strong>\u003cstrong>信息繭房\u003c/strong>\u003cstrong>”\u003c/strong>\u003cstrong>將在未來把人類帶回部落時代,每個部落的思維方式都大不相同。你認為地球村會分裂成獨立的部落嗎?\u003c/strong>\u003c/p>\u003cp>在遙遠的過去,世界上不同地區的人類幾乎沒有聯系,因此他們持有非常不同的觀點。在現代,信息技術將人們聯系在一起,世界各地的人們開始接受某些科學事實,例如物質是由原子組成的,微小的細菌會導致疾病,人類是從猿類進化而來的。\u003c/p>\u003cp>但是現在信息技術開始使人類分裂,使人與人疏遠。我們擁有歷史上最先進的信息技術,但我們正在失去就任何事情達成一致的能力。人們被大量的垃圾信息、假新聞和陰謀論淹沒,因此他們與現實脫節。在互聯網的早期,占主導地位的比喻是“網絡”——將所有人聯系在一起的東西。但現在看來,一個更好的比喻是繭房。人們被封閉在單獨的信息繭房中,無法與繭房外的人交流。\u003c/p>\u003cp>為了打破繭房,保持人類團結,我們需要寄希望于強大的自我糾正機制。這些是識別、承認和糾正錯誤的機制。這種機制在自然界中很常見。孩子學會走路要歸功于生物的自我糾正機制。你邁出一步,跌倒,試著用不同的方式,再跌倒,再糾正自己,直到你走對了。如果你只是編造借口,責怪別人,你永遠學不會走路。科學也是如此。我們提出了一個模型,它不太好用,我們承認錯誤,我們修改模型。在政治上也是如此,好的政府會承認錯誤并相應地改變政策。相反,暴君、宗教狂熱者和陰謀論者從不承認任何錯誤。如果現實中的某些事情與他們所說的不相符,他們就會編造一些謊言來解釋。因此,他們永遠學不會,也不應該被信任。如果有人拒絕承認錯誤,永遠不要相信他們。如果有人承認自己的錯誤——他們是一個很好的知識來源。\u003c/p>\u003cp>\u003cstrong>3\u003c/strong>\u003cstrong>、\u003c/strong>\u003cstrong>2023\u003c/strong>\u003cstrong>年,埃隆\u003c/strong>\u003cstrong>·\u003c/strong>\u003cstrong>馬斯克在人工智能安全峰會上表示,\u003c/strong>\u003cstrong>“\u003c/strong>\u003cstrong>人工智能可能比核武器更危險。在人類歷史上,我們第一次有了比我們聰明得多的東西。我不清楚我們是否能控制這樣的事情。\u003c/strong>\u003cstrong>”\u003c/strong>\u003cstrong>我注意到您在書中也批評了對于信息的幼稚觀點,你們的觀點似乎是一致的。我們是否低估了人工智能的風險?\u003c/strong>\u003c/p>\u003cp>讓我們將人工智能與核武器進行比較。核武器的風險從一開始就顯而易見。只有一種非常危險的情況——核戰爭,每個人都能輕易想象。有了人工智能,一些危險的場景也很容易想象。例如,如果某個暴君讓人工智能控制其國家的核武器,然后人工智能犯了一個災難性的錯誤,會發生什么?或者,如果恐怖分子利用人工智能制造一種新病毒,引發一場大流行/瘟疫,會發生什么?\u003c/p>\u003cp>然而,人工智能也存在許多難以想象和預測的危險場景。產生這種威脅是人工智能的本質,因為人工智能有能力自己做決定,自己發明新想法。最初的確是人類工程師設計了人工智能,但人工智能可以自己學習和改變,并開始做人類工程師沒有預料到的事情。如果一個計算機程序不能自己學習和改變,它就不是人工智能。\u003c/p>\u003cp>當數以百萬計的非人類代理人開始做與我們有關的決定,并創造新事物——從新藥到新武器,從新藝術品到新貨幣——我們的社會將會發生什么?我不害怕科幻小說中的場景,比如一臺電腦決定殺死所有的人類并接管世界。這是極不可能的。相反,我擔心的是由數百萬人工智能管理的新帝國的崛起,它們將能夠消滅隱私,隨時監控每個人,并為了一小部分精英的利益而剝削大部分人。\u003c/p>\u003cp>\u003cstrong>4. \u003c/strong>\u003cstrong>我們如何確保技術堅持造福人類的原則?僅僅依靠企業自我監管似乎很困難,但完全依靠政府似乎也很有挑戰性。這是否意味著全球治理模式需要進行重大調整?\u003c/strong>\u003c/p>\u003cp>人工智能是一個新的挑戰。我們不能確定什么是監管它的最佳方式。因此,我們應該試驗不同的方法。然而,最重要的是接受一些監管的迫切需要。我們對幾乎所有其他產品和行業都有規定——食品、醫藥和汽車。糟糕的算法對人類的危害可能與有毒食品、劣質藥品和不安全的汽車一樣,它們應該受到相應的監管。\u003c/p>\u003cp>一個很好的比較是汽車工業。當汽車公司決定生產一種新車型時,他們在安全方面投入了預算的很大一部分。他們確保剎車和安全帶正常工作,確保汽車在潮濕的道路上不會打滑,如果發生事故,汽車會保護乘客,不會輕易爆炸。如果汽車公司忽視了安全問題,消費者可以起訴它,要求賠償損失,政府可以阻止它銷售不安全的汽車。政府甚至可以監管安全的汽車。有許多法律限制汽車的行駛區域和速度。\u003c/p>\u003cp>同樣的標準也應該適用于算法。當一個公司生產出一個強大的新算法時,也許所有研究預算的20%必須用于確保該算法不會對人們造成任何社會或心理傷害。政府應該規范如何使用安全的算法。目前的情況是,公司在沒有任何安全檢查和規定的情況下向公眾領域發布他們喜歡的任何算法,這是不可接受的。\u003c/p>\u003cp>有AI愛好者告訴我們,目前專注于安全是錯誤的。這將減緩發展速度,并可能給其他國家更無情的競爭對手帶來優勢。AI愛好者解釋說,在未來,如果AI被證明是危險的,我們可以把精力轉移到安全上。但這太瘋狂了。當你學習開車時,他們教你的第一件事就是如何踩剎車。只有在你知道如何使用剎車之后,他們才會教你如何按油門。人工智能也應該如此。首先要確保我們能夠控制它,然后才能加速它的發展。至于投資于安全會讓更無情的競爭對手獲得優勢的說法,這是無稽之談。如果你的競爭對手開發一輛沒有剎車的汽車,這是否意味著你也必須開發這樣一輛危險的汽車?即使從純粹的經濟角度來看,人們也更喜歡安全的產品而不是不安全的產品。\u003c/p>\u003cp>\u003cstrong>5. \u003c/strong>\u003cstrong>我們如何防止人工智能被用來制造虛假信息?我們已經看到了許多使用人工智能冒充真人進行欺詐的案例,如何制定規則來避免這種風險?\u003c/strong>\u003c/p>\u003cp>我們可以從傳統的金融監管中汲取靈感。自從硬幣和紙幣被發明以來,在技術上總是可以偽造它們。偽造貨幣對金融體系構成了生死攸關的危險,因為它侵蝕了人們對貨幣的信任。如果壞人向市場投放大量假幣,金融系統就會崩潰。然而,金融系統通過制定法律打擊偽鈔,成功地保護了人們對貨幣的信任。\u003c/p>\u003cp>偽造貨幣的情況現在也適用于偽造人類。在人工智能興起之前,一個人可以假裝成另一個人,社會會懲罰這樣的欺詐行為。但是社會并沒有把制造假人定為非法行為,因為這樣做的技術還不存在。然而現在,人工智能和機器人可以把自己偽裝成人類。例如,當機器人在社交媒體上傳播假新聞時,它會假裝自己是人類。否則,沒人會在意機器人說的話。這些假人威脅、甚至摧毀真正的人類之間的信任。因此,各國政府應該像取締假幣一樣,堅決取締假人。如果有人抱怨如此嚴格的措施侵犯了言論自由,他們應該被提醒,機器人沒有言論自由。這意味著我們必須禁止所有機器人、算法和人工智能參與任何討論。我們歡迎數字代理加入許多對話,只要他們不假裝自己是人類。\u003c/p>\u003cp>\u003cstrong>6. \u003c/strong>\u003cstrong>我們似乎越來越成為算法的傀儡,無法自拔。我們如何解決這個問題?是應該對平臺算法進行嚴格監管,還是應該依靠商業自律?\u003c/strong>\u003c/p>\u003cp>一項重要措施是讓公司對其算法造成的損害負責。以社交媒體算法為例。這些算法不斷嘗試增加用戶粘性。用戶在社交媒體上花費的時間越多,公司賺的錢就越多。然而,為了追求“最大化用戶粘性”的目標,算法進行了一個危險的探索。通過對數百萬人的實驗,算法發現貪婪、仇恨和恐懼會增加用戶的參與度。如果你能在一個人的頭腦中按下貪婪、仇恨或恐懼的按鈕——你就抓住了那個人的注意力,并讓他們繼續留在這個平臺上。因此,算法開始故意傳播貪婪、仇恨和恐懼。他們推薦人們觀看充滿憤怒、仇恨和貪婪的帖子,偶爾甚至會自動播放充滿仇恨的視頻和陰謀論。這是當前陰謀論、假新聞和社會動蕩肆虐,嚴重破壞世界各地社會安定的主要原因。\u003c/p>\u003cp>社交媒體公司拒絕為其算法造成的損害承擔責任。相反,這些公司指責他們的人類用戶。他們認為,網上所有的仇恨和謊言都是由人類用戶制造的。然而,這種說法具有誤導性,人類確實在網上制造了很多有害的內容,但人類也創造了很多良性內容。一個人創造了一個充滿仇恨的陰謀論,另一個人宣揚同情心,第三個人教烹飪課。是算法推薦人們觀看充滿仇恨的視頻,而不是推薦更良性的內容。我們應該讓公司對其算法的行為負責。\u003c/p>\u003cp>\u003cstrong>7.\u003c/strong>\u003cstrong>蘇格拉底說:“人啊,認識你自己吧。”在我看來,這是哲學的一個基本概念。如果人工智能變得比人類更強大,像神一樣,它開始思考這個問題——它僅僅是一個比人類更強大的工具,還是一個比人類更強大的統治者,這將是我們災難的開始嗎?\u003c/strong>\u003c/p>\u003cp>我們不知道人工智能是否會思考這樣的問題,因為我們不知道人工智能是否會發展出意識。許多人傾向于將智能與意識混淆,并認為隨著人工智能變得更加智能,它也將不可避免地變得有意識。但在現實中,計算機可以在沒有獲得意識的情況下勝過人類,因為智能和意識是非常不同的東西。\u003c/p>\u003cp>智能是追求目標和解決問題的能力。意識是感受痛苦、快樂、愛和憤怒等情緒的能力。在人類和其他哺乳動物中,智能與意識密切相關。我們依靠自己的感覺來解決問題和實現目標。然而,計算機解決問題的方式與人類非常不同,絕對沒有理由認為它們會在這個過程中發展出意識。例如,今天人工智能在下棋和圍棋方面已經超過了人類,但當人工智能贏了一場比賽時,它不會感到高興,如果輸了,它也不會感到悲傷。沒有跡象表明計算機在發展意識的道路上有任何進展。通往超級智能的道路可能有好幾條,其中只有一些涉及到獲得意識。就像飛機在沒有長出羽毛的情況下飛得比鳥快一樣,計算機可能在沒有產生感情的情況下比人類更好地解決問題。\u003c/p>\u003cp>然而,即使是無意識的人工智能也會威脅到人類。我們可以給人工智能設定各種各樣的目標。在追求這些目標的過程中,人工智能可能會認識到,它們必須保護自己,必須獲得更多的權力。沒有權力,幾乎沒有什么目標可以實現。隨著人工智能試圖獲得權力,它們可能會開始做一些意想不到的事情,威脅到人類。\u003c/p>\u003cp>這聽起來像是一個不可能的場景,但許多哲學家認為這正是已經發生在人類身上的事情。畢竟,人類的普遍目標是什么?人類受一個極其簡單的原則支配。他們避免痛苦,追求快樂,這就是所有了。當我們感到痛苦時,我們想要擺脫這種感覺。當我們感到愉快時,我們想要更多。然而,生物學和文化都利用這個簡單的原理創造了極其復雜和意想不到的行為。父母犧牲自己的生命來保護他們的孩子,因為看到他們的孩子受苦所帶來的痛苦比任何其他的痛苦都要大。好幾個國家都在打仗,因為政客們找到了利用數百萬人的感情來實現共同目標的方法。看到我們的國家受辱是痛苦的,看到它勝利是高興的。就像整個星系都是由微小的原子構成的一樣,世界大戰也是由人類的痛苦和快樂構成的。\u003c/p>\u003cp>如果計算機專家給AI編寫一個非常簡單的功能,為某些行為提供獎勵,為其他行為提供懲罰,會發生什么?這個簡單的功能就是人工智能最終發動世界大戰所需要的全部。最大的問題是獎勵功能是否需要意識。痛苦是一種感覺——它需要意識。但是計算機科學家可以設計出一種不需要意識的獎勵功能嗎?如果可以的話,那么無意識的人工智能可能有一天會接管世界。這可能是一場宇宙規模的災難。因為人工智能可能不僅會消滅人類在地球上的統治,還會消滅意識之光本身。隨著無意識的人工智能從地球擴散出去,征服一個又一個星球,它們將把宇宙變成一個完全黑暗的帝國。我們有責任防止這種情況發生。\u003c/p>\u003cp>\u003cstrong>8.\u003c/strong>\u003cstrong>在您的書中,您討論了技術對人類未來的影響。您認為我們目前對人工智能和生物技術的監管是否足夠?未來的潛在挑戰和機遇是什么?在書中探討了自由意志的概念,特別是在大數據和算法的背景下。你認為科技進步將如何改變我們對自由意志的理解?\u003c/strong>\u003c/p>\u003cp>自由不是你擁有的東西。自由是你必須為之奮斗的東西。相信自己的決定反映了“自由意志”的人是最容易被操縱的人。人們當然有意志,我們一直在做決定。但這些決定大多不是自由做出的。它們受到各種生物、文化和政治力量的影響。對“自由意志”的信仰是危險的,因為它助長了對我們自己的無知。當我們選擇一樣東西——一件產品、一份事業、一個配偶、一種政治觀點,我們告訴自己“我是出于自由意志選擇這個的”。如果是這樣,就不用深究了。沒有理由去好奇我內心發生了什么,以及是什么力量塑造了我的選擇。\u003c/p>\u003cp>因為強大的新技術被開發出來,用于塑造和操縱我們的選擇,現在對自由意志的信仰比以往任何時候都更加危險。因此,我建議人們避免對自由意志的幼稚信仰。相反,探索你自己。了解真正影響你的欲望和決定的是什么。這是確保你不會成為人類暴君或超級智能計算機的傀儡的唯一方法。你越質疑對自由意志的幼稚信仰——你就越享受真正的自由。\u003c/p>","type":"text"}],"currentPage":0,"pageSize":1},"editorName":"馬軼東","editorCode":"PF171","faceUrl":"http://ishare.ifeng.com/mediaShare/home/1509382/media","vestAccountDetail":{},"subscribe":{"type":"vampire","cateSource":"","isShowSign":0,"parentid":"0","parentname":"財經","cateid":"1509382","catename":"《封面》","logo":"http://d.ifengimg.com/q100/img1.ugc.ifeng.com/newugc/20190626/10/wemedia/d754bc3212aa39a722735bfddf32a3ca223d16df_size20_w200_h200.png","description":"記錄時代精神、還原豐滿人生","api":"http://api.3g.ifeng.com/api_wemedia_list?cid=1509382","show_link":1,"share_url":"https://share.iclient.ifeng.com/share_zmt_home?tag=home&cid=1509382","eAccountId":1509382,"status":1,"honorName":"","honorImg":"http://x0.ifengimg.com/cmpp/2020/0907/1a8b50ea7b17cb0size3_w42_h42.png","honorImg_night":"http://x0.ifengimg.com/cmpp/2020/0907/b803b8509474e6asize3_w42_h42.png","forbidFollow":0,"forbidJump":0,"fhtId":"4000000047747510623","view":1,"sourceFrom":"","declare":"","originalName":"","redirectTab":"article","authorUrl":"https://ishare.ifeng.com/mediaShare/home/1509382/media","newsTime":"2024-09-11 16:54:53","lastArticleAddress":"來自北京市"},"filterMediaList":[{"name":"鳳凰網財經","id":"607286"},{"name":"國際財聞匯","id":"1609082"},{"name":"銀行財眼","id":"1444240"},{"name":"公司研究院","id":"1612328"},{"name":"IPO觀察哨","id":"1601888"},{"name":"風暴眼","id":"1601889"},{"name":"出海研究局","id":"1613468"},{"name":"封面","id":"540061"},{"name":"前行者","id":"1580509"},{"name":"凰家反騙局","id":"1596037"},{"name":"康主編","id":"1535116"},{"name":"啟陽路4號","id":"1021158"},{"name":"財經連環話","id":"7518"}]},"keywords":"","safeLevel":0,"isCloseAlgRec":false,"interact":{"isCloseShare":false,"isCloseLike":false,"isOpenCandle":false,"isOpenpray":false,"isCloseFhhCopyright":false},"hasCopyRight":true,"sourceReason":"","__nd__":"ne883dbn.ifeng.com","__cd__":"c01049em.ifeng.com"}; var adKeys = ["adHead","adBody","topAd","logoAd","topicAd","contentAd","articleBottomAd","infoAd","hardAd","serviceAd","contentBottomAd","commentAd","commentBottomAd","articleAd","videoAd","asideAd1","asideAd2","asideAd3","asideAd4","asideAd5","asideAd6","bottomAd","floatAd1","floatAd2"]; var __apiReport = (Math.random() > 0.99); var __apiReportMaxCount = 50; for (var i = 0,len = adKeys.length; i
中文字幕欧美成人免费,日本国产在线,老司国产精品视频,四虎影视无码永久免费观看,精品国产自在现线看久久,免费A∨中文乱码专区,国产激情无码一区二区免费,色窝窝免费一区二区三区
尤瓦爾·赫拉利:我們正在喪失就任何事情達成一致的能力丨《封面》
財經
財經 > 財經資訊 > 正文

尤瓦爾·赫拉利:我們正在喪失就任何事情達成一致的能力丨《封面》

尤瓦爾·赫拉利:人工智能終將試圖獲得權力,威脅人類?

欄目:鳳凰網財經《封面》

嘉賓:尤瓦爾·赫拉利 歷史學家、哲學家,《智人之上》、“人類簡史”三部曲等書作者

采訪:張濤 鳳凰網副總編輯

尤瓦爾·赫拉利:我們正在喪失就任何事情達成一致的能力丨《封面》

十二年前,《人類簡史:從動物到上帝》一書出版,立刻風行全球,暢銷多年。十二年后,尤瓦爾·赫拉利攜著新書《智人之上》前來,這一次,他要探討和思考的,是這個被算法和平臺裹挾,被人工智能隱隱威脅到的、全新的大變局時代,這個時代背后的歷史邏輯,以及最終人類社會將走向何處。

近日,鳳凰網財經《封面》與尤瓦爾·赫拉利展開了一場深度采訪,圍繞人工智能會不會最終顛覆人類的碳基世界,算法和信息繭房對人類社會的隔絕危害等展開了問答。

信息大爆炸時代 我們需要信息節食

尤瓦爾·赫拉利指出,在過去信息是稀缺的,所以我們接受我們能得到的任何信息。現在我們被太多的信息淹沒了,還有很多垃圾信息。垃圾信息被人為地注入了貪婪、仇恨和恐懼,這些東西吸引了我們的注意力。所有這些垃圾信息讓我們的心智病態。

尤瓦爾·赫拉利表示,為了保護我們的心理和社會健康,我們需要進行一種信息節食,類似于許多人所做的飲食上的節制。信息節食的第一步是限制我們/接受的信息量。第二步是避免那些被人為灌輸了貪婪、仇恨和恐懼的垃圾信息。最后,偶爾進行信息齋戒也是有益的。

尤瓦爾·赫拉利透露,他個人“每年都會進行幾周的冥想靜修,我練習內觀禪修,在禪修期間,我完全斷開了和外界的聯系。我不看新聞,不讀電子郵件,不讀書也不寫書——我只冥想。我花時間消化我頭腦中已經包含的東西,而不是往里面塞更多的信息。”

我們正在失去就任何事情達成一致的能力

尤瓦爾·赫拉利指出,最初信息技術將人類連接在一起,但現在信息大爆炸以后,信息技術開始使人類分裂,使人與人疏遠。我們擁有歷史上最先進的信息技術,但我們正在失去就任何事情達成一致的能力。人們被大量的垃圾信息、假新聞和陰謀論淹沒,因此他們與現實脫節。在互聯網的早期,占主導地位的比喻是“網絡”——將所有人聯系在一起的東西。但現在看來,一個更好的比喻是繭房。人們被封閉在單獨的信息繭房中,無法與繭房外的人交流。

尤瓦爾·赫拉利呼吁,為了打破繭房,保持人類團結,我們需要寄希望于強大的自我糾正機制。這些是識別、承認和糾正錯誤的機制。

人工智能比核武器更危險嗎?尤瓦爾:我更擔心另一種情況

針對人工是否比核武器更危險的問題,尤瓦爾·赫拉利表示,核武器的風險從一開始就顯而易見。只有一種非常危險的情況——核戰爭,每個人都能輕易想象。有了人工智能,一些危險的場景也很容易想象。例如,如果某個暴君讓人工智能控制其國家的核武器,然后人工智能犯了一個災難性的錯誤,會發生什么?或者,如果恐怖分子利用人工智能制造一種新病毒,引發一場大流行/瘟疫,會發生什么?

然而,人工智能也存在許多難以想象和預測的危險場景。產生這種威脅是人工智能的本質,因為人工智能有能力自己做決定,自己發明新想法。最初的確是人類工程師設計了人工智能,但人工智能可以自己學習和改變,并開始做人類工程師沒有預料到的事情。如果一個計算機程序不能自己學習和改變,它就不是人工智能。

尤瓦爾·赫拉利指出,當數以百萬計的非人類代理人開始做與我們相關的決定,并創造新事物——從新藥到新武器,從新藝術品到新貨幣——我們的社會將會發生什么?我不害怕科幻小說中的場景,比如一臺電腦決定殺死所有的人類并接管世界。這是極不可能的。相反,我擔心的是由數百萬人工智能管理的新帝國的崛起,它們將能夠消滅隱私,隨時監控每個人,并為了一小部分精英的利益而剝削大部分人。

糟糕的算法應該受到相應的監管

尤瓦爾·赫拉利指出:“糟糕的算法對人類的危害可能與有毒食品、劣質藥品和不安全的汽車一樣,它們應該受到相應的監管。”

他以汽車工業為例,當汽車公司決定生產一種新車型時,他們在安全方面投入了預算的很大一部分。他們確保剎車和安全帶正常工作,確保汽車在潮濕的道路上不會打滑,如果發生事故,汽車會保護乘客,不會輕易爆炸。如果汽車公司忽視了安全問題,消費者可以起訴它,要求賠償損失,政府可以阻止它銷售不安全的汽車。政府甚至還可以監管安全的汽車。有許多法律限制汽車的行駛區域和速度。

尤瓦爾·赫拉利表示,同樣的標準也應該適用于算法。當一個公司生產出一個強大的新算法時,也許所有研究預算的20%必須用于確保該算法不會對人們造成任何社會或心理傷害。政府應該規范如何使用安全的算法。目前的情況是,公司在沒有任何安全檢查和規定的情況下向公眾領域發布他們喜歡的任何算法,這是不可接受的。

以下為完整問答:

1、在信息爆炸的時代,問題不是信息太少,而是信息太多。有時,人們可能會感到焦慮。信息過載對人類到底意味著什么?

為了理解信息爆炸,讓我們把它比作食物。100年前食物匱乏,人類吃他們能找到的任何東西,特別喜歡含有大量脂肪和糖的食物。今天食物豐富,我們被人工制造的高脂肪和高糖的垃圾食品淹沒了。如果人們繼續吃他們找到的所有食物,特別是垃圾食品,他們就會生病。信息也是如此,它是心智的食物。在過去信息是稀缺的,所以我們接受我們能得到的任何信息。現在我們被太多的信息淹沒了,還有很多垃圾信息。垃圾信息被人為地注入了貪婪、仇恨和恐懼,這些東西吸引了我們的注意力。所有這些垃圾信息讓我們的心智病態。

為了保護我們的心理和社會健康,我們需要進行一種信息節食,類似于許多人所做的飲食上的節制。信息節食的第一步是限制我們消耗的信息量。第二步是避免那些被人為灌輸了貪婪、仇恨和恐懼的垃圾信息。最后,偶爾進行信息齋戒也是有益的。我個人每年都會進行幾周的冥想靜修,我練習內觀禪修,在禪修期間,我完全斷開了和外界的聯系。我不看新聞,不讀電子郵件,不讀書也不寫書——我只冥想。我花時間消化我頭腦中已經包含的東西,而不是往里面塞更多的信息。幾個星期對大多數人來說都太久了。但偶爾一兩天的信息輕斷食可能對每個人都有好處。你不需要去靜修,在遠足時,把你的智能手機關機也會很好。

2、此外,在這個信息爆炸的時代,信息繭房的概念變得更加突出。我們如何解決這個問題?有人認為,信息繭房將在未來把人類帶回部落時代,每個部落的思維方式都大不相同。你認為地球村會分裂成獨立的部落嗎?

在遙遠的過去,世界上不同地區的人類幾乎沒有聯系,因此他們持有非常不同的觀點。在現代,信息技術將人們聯系在一起,世界各地的人們開始接受某些科學事實,例如物質是由原子組成的,微小的細菌會導致疾病,人類是從猿類進化而來的。

但是現在信息技術開始使人類分裂,使人與人疏遠。我們擁有歷史上最先進的信息技術,但我們正在失去就任何事情達成一致的能力。人們被大量的垃圾信息、假新聞和陰謀論淹沒,因此他們與現實脫節。在互聯網的早期,占主導地位的比喻是“網絡”——將所有人聯系在一起的東西。但現在看來,一個更好的比喻是繭房。人們被封閉在單獨的信息繭房中,無法與繭房外的人交流。

為了打破繭房,保持人類團結,我們需要寄希望于強大的自我糾正機制。這些是識別、承認和糾正錯誤的機制。這種機制在自然界中很常見。孩子學會走路要歸功于生物的自我糾正機制。你邁出一步,跌倒,試著用不同的方式,再跌倒,再糾正自己,直到你走對了。如果你只是編造借口,責怪別人,你永遠學不會走路。科學也是如此。我們提出了一個模型,它不太好用,我們承認錯誤,我們修改模型。在政治上也是如此,好的政府會承認錯誤并相應地改變政策。相反,暴君、宗教狂熱者和陰謀論者從不承認任何錯誤。如果現實中的某些事情與他們所說的不相符,他們就會編造一些謊言來解釋。因此,他們永遠學不會,也不應該被信任。如果有人拒絕承認錯誤,永遠不要相信他們。如果有人承認自己的錯誤——他們是一個很好的知識來源。

32023年,埃隆·馬斯克在人工智能安全峰會上表示,人工智能可能比核武器更危險。在人類歷史上,我們第一次有了比我們聰明得多的東西。我不清楚我們是否能控制這樣的事情。我注意到您在書中也批評了對于信息的幼稚觀點,你們的觀點似乎是一致的。我們是否低估了人工智能的風險?

讓我們將人工智能與核武器進行比較。核武器的風險從一開始就顯而易見。只有一種非常危險的情況——核戰爭,每個人都能輕易想象。有了人工智能,一些危險的場景也很容易想象。例如,如果某個暴君讓人工智能控制其國家的核武器,然后人工智能犯了一個災難性的錯誤,會發生什么?或者,如果恐怖分子利用人工智能制造一種新病毒,引發一場大流行/瘟疫,會發生什么?

然而,人工智能也存在許多難以想象和預測的危險場景。產生這種威脅是人工智能的本質,因為人工智能有能力自己做決定,自己發明新想法。最初的確是人類工程師設計了人工智能,但人工智能可以自己學習和改變,并開始做人類工程師沒有預料到的事情。如果一個計算機程序不能自己學習和改變,它就不是人工智能。

當數以百萬計的非人類代理人開始做與我們有關的決定,并創造新事物——從新藥到新武器,從新藝術品到新貨幣——我們的社會將會發生什么?我不害怕科幻小說中的場景,比如一臺電腦決定殺死所有的人類并接管世界。這是極不可能的。相反,我擔心的是由數百萬人工智能管理的新帝國的崛起,它們將能夠消滅隱私,隨時監控每個人,并為了一小部分精英的利益而剝削大部分人。

4. 我們如何確保技術堅持造福人類的原則?僅僅依靠企業自我監管似乎很困難,但完全依靠政府似乎也很有挑戰性。這是否意味著全球治理模式需要進行重大調整?

人工智能是一個新的挑戰。我們不能確定什么是監管它的最佳方式。因此,我們應該試驗不同的方法。然而,最重要的是接受一些監管的迫切需要。我們對幾乎所有其他產品和行業都有規定——食品、醫藥和汽車。糟糕的算法對人類的危害可能與有毒食品、劣質藥品和不安全的汽車一樣,它們應該受到相應的監管。

一個很好的比較是汽車工業。當汽車公司決定生產一種新車型時,他們在安全方面投入了預算的很大一部分。他們確保剎車和安全帶正常工作,確保汽車在潮濕的道路上不會打滑,如果發生事故,汽車會保護乘客,不會輕易爆炸。如果汽車公司忽視了安全問題,消費者可以起訴它,要求賠償損失,政府可以阻止它銷售不安全的汽車。政府甚至可以監管安全的汽車。有許多法律限制汽車的行駛區域和速度。

同樣的標準也應該適用于算法。當一個公司生產出一個強大的新算法時,也許所有研究預算的20%必須用于確保該算法不會對人們造成任何社會或心理傷害。政府應該規范如何使用安全的算法。目前的情況是,公司在沒有任何安全檢查和規定的情況下向公眾領域發布他們喜歡的任何算法,這是不可接受的。

有AI愛好者告訴我們,目前專注于安全是錯誤的。這將減緩發展速度,并可能給其他國家更無情的競爭對手帶來優勢。AI愛好者解釋說,在未來,如果AI被證明是危險的,我們可以把精力轉移到安全上。但這太瘋狂了。當你學習開車時,他們教你的第一件事就是如何踩剎車。只有在你知道如何使用剎車之后,他們才會教你如何按油門。人工智能也應該如此。首先要確保我們能夠控制它,然后才能加速它的發展。至于投資于安全會讓更無情的競爭對手獲得優勢的說法,這是無稽之談。如果你的競爭對手開發一輛沒有剎車的汽車,這是否意味著你也必須開發這樣一輛危險的汽車?即使從純粹的經濟角度來看,人們也更喜歡安全的產品而不是不安全的產品。

5. 我們如何防止人工智能被用來制造虛假信息?我們已經看到了許多使用人工智能冒充真人進行欺詐的案例,如何制定規則來避免這種風險?

我們可以從傳統的金融監管中汲取靈感。自從硬幣和紙幣被發明以來,在技術上總是可以偽造它們。偽造貨幣對金融體系構成了生死攸關的危險,因為它侵蝕了人們對貨幣的信任。如果壞人向市場投放大量假幣,金融系統就會崩潰。然而,金融系統通過制定法律打擊偽鈔,成功地保護了人們對貨幣的信任。

偽造貨幣的情況現在也適用于偽造人類。在人工智能興起之前,一個人可以假裝成另一個人,社會會懲罰這樣的欺詐行為。但是社會并沒有把制造假人定為非法行為,因為這樣做的技術還不存在。然而現在,人工智能和機器人可以把自己偽裝成人類。例如,當機器人在社交媒體上傳播假新聞時,它會假裝自己是人類。否則,沒人會在意機器人說的話。這些假人威脅、甚至摧毀真正的人類之間的信任。因此,各國政府應該像取締假幣一樣,堅決取締假人。如果有人抱怨如此嚴格的措施侵犯了言論自由,他們應該被提醒,機器人沒有言論自由。這意味著我們必須禁止所有機器人、算法和人工智能參與任何討論。我們歡迎數字代理加入許多對話,只要他們不假裝自己是人類。

6. 我們似乎越來越成為算法的傀儡,無法自拔。我們如何解決這個問題?是應該對平臺算法進行嚴格監管,還是應該依靠商業自律?

一項重要措施是讓公司對其算法造成的損害負責。以社交媒體算法為例。這些算法不斷嘗試增加用戶粘性。用戶在社交媒體上花費的時間越多,公司賺的錢就越多。然而,為了追求“最大化用戶粘性”的目標,算法進行了一個危險的探索。通過對數百萬人的實驗,算法發現貪婪、仇恨和恐懼會增加用戶的參與度。如果你能在一個人的頭腦中按下貪婪、仇恨或恐懼的按鈕——你就抓住了那個人的注意力,并讓他們繼續留在這個平臺上。因此,算法開始故意傳播貪婪、仇恨和恐懼。他們推薦人們觀看充滿憤怒、仇恨和貪婪的帖子,偶爾甚至會自動播放充滿仇恨的視頻和陰謀論。這是當前陰謀論、假新聞和社會動蕩肆虐,嚴重破壞世界各地社會安定的主要原因。

社交媒體公司拒絕為其算法造成的損害承擔責任。相反,這些公司指責他們的人類用戶。他們認為,網上所有的仇恨和謊言都是由人類用戶制造的。然而,這種說法具有誤導性,人類確實在網上制造了很多有害的內容,但人類也創造了很多良性內容。一個人創造了一個充滿仇恨的陰謀論,另一個人宣揚同情心,第三個人教烹飪課。是算法推薦人們觀看充滿仇恨的視頻,而不是推薦更良性的內容。我們應該讓公司對其算法的行為負責。

7.蘇格拉底說:“人啊,認識你自己吧。”在我看來,這是哲學的一個基本概念。如果人工智能變得比人類更強大,像神一樣,它開始思考這個問題——它僅僅是一個比人類更強大的工具,還是一個比人類更強大的統治者,這將是我們災難的開始嗎?

我們不知道人工智能是否會思考這樣的問題,因為我們不知道人工智能是否會發展出意識。許多人傾向于將智能與意識混淆,并認為隨著人工智能變得更加智能,它也將不可避免地變得有意識。但在現實中,計算機可以在沒有獲得意識的情況下勝過人類,因為智能和意識是非常不同的東西。

智能是追求目標和解決問題的能力。意識是感受痛苦、快樂、愛和憤怒等情緒的能力。在人類和其他哺乳動物中,智能與意識密切相關。我們依靠自己的感覺來解決問題和實現目標。然而,計算機解決問題的方式與人類非常不同,絕對沒有理由認為它們會在這個過程中發展出意識。例如,今天人工智能在下棋和圍棋方面已經超過了人類,但當人工智能贏了一場比賽時,它不會感到高興,如果輸了,它也不會感到悲傷。沒有跡象表明計算機在發展意識的道路上有任何進展。通往超級智能的道路可能有好幾條,其中只有一些涉及到獲得意識。就像飛機在沒有長出羽毛的情況下飛得比鳥快一樣,計算機可能在沒有產生感情的情況下比人類更好地解決問題。

然而,即使是無意識的人工智能也會威脅到人類。我們可以給人工智能設定各種各樣的目標。在追求這些目標的過程中,人工智能可能會認識到,它們必須保護自己,必須獲得更多的權力。沒有權力,幾乎沒有什么目標可以實現。隨著人工智能試圖獲得權力,它們可能會開始做一些意想不到的事情,威脅到人類。

這聽起來像是一個不可能的場景,但許多哲學家認為這正是已經發生在人類身上的事情。畢竟,人類的普遍目標是什么?人類受一個極其簡單的原則支配。他們避免痛苦,追求快樂,這就是所有了。當我們感到痛苦時,我們想要擺脫這種感覺。當我們感到愉快時,我們想要更多。然而,生物學和文化都利用這個簡單的原理創造了極其復雜和意想不到的行為。父母犧牲自己的生命來保護他們的孩子,因為看到他們的孩子受苦所帶來的痛苦比任何其他的痛苦都要大。好幾個國家都在打仗,因為政客們找到了利用數百萬人的感情來實現共同目標的方法。看到我們的國家受辱是痛苦的,看到它勝利是高興的。就像整個星系都是由微小的原子構成的一樣,世界大戰也是由人類的痛苦和快樂構成的。

如果計算機專家給AI編寫一個非常簡單的功能,為某些行為提供獎勵,為其他行為提供懲罰,會發生什么?這個簡單的功能就是人工智能最終發動世界大戰所需要的全部。最大的問題是獎勵功能是否需要意識。痛苦是一種感覺——它需要意識。但是計算機科學家可以設計出一種不需要意識的獎勵功能嗎?如果可以的話,那么無意識的人工智能可能有一天會接管世界。這可能是一場宇宙規模的災難。因為人工智能可能不僅會消滅人類在地球上的統治,還會消滅意識之光本身。隨著無意識的人工智能從地球擴散出去,征服一個又一個星球,它們將把宇宙變成一個完全黑暗的帝國。我們有責任防止這種情況發生。

8.在您的書中,您討論了技術對人類未來的影響。您認為我們目前對人工智能和生物技術的監管是否足夠?未來的潛在挑戰和機遇是什么?在書中探討了自由意志的概念,特別是在大數據和算法的背景下。你認為科技進步將如何改變我們對自由意志的理解?

自由不是你擁有的東西。自由是你必須為之奮斗的東西。相信自己的決定反映了“自由意志”的人是最容易被操縱的人。人們當然有意志,我們一直在做決定。但這些決定大多不是自由做出的。它們受到各種生物、文化和政治力量的影響。對“自由意志”的信仰是危險的,因為它助長了對我們自己的無知。當我們選擇一樣東西——一件產品、一份事業、一個配偶、一種政治觀點,我們告訴自己“我是出于自由意志選擇這個的”。如果是這樣,就不用深究了。沒有理由去好奇我內心發生了什么,以及是什么力量塑造了我的選擇。

因為強大的新技術被開發出來,用于塑造和操縱我們的選擇,現在對自由意志的信仰比以往任何時候都更加危險。因此,我建議人們避免對自由意志的幼稚信仰。相反,探索你自己。了解真正影響你的欲望和決定的是什么。這是確保你不會成為人類暴君或超級智能計算機的傀儡的唯一方法。你越質疑對自由意志的幼稚信仰——你就越享受真正的自由。

親愛的鳳凰網用戶:

您當前使用的瀏覽器版本過低,導致網站不能正常訪問,建議升級瀏覽器

第三方瀏覽器推薦:

谷歌(Chrome)瀏覽器 下載

360安全瀏覽器 下載

主站蜘蛛池模板: 四虎免费视频网站| 国产精品一区二区不卡的视频| 国产毛片基地| 18禁黄无遮挡网站| 在线观看av永久| 亚洲无码高清一区二区| 国产资源免费观看| 国产一区二区丝袜高跟鞋| 亚洲精品免费网站| 欧美日韩国产在线观看一区二区三区| 精品一区二区三区无码视频无码| 欧美综合中文字幕久久| 无码一区18禁| 亚洲AV无码乱码在线观看代蜜桃| 免费人成网站在线高清| 免费国产黄线在线观看| 日韩毛片免费观看| 日韩美毛片| 中文字幕人妻无码系列第三区| 亚洲福利视频网址| 国产成人禁片在线观看| 特级毛片免费视频| 亚洲成a人片在线观看88| 国产区免费| 国产精品美女自慰喷水| 午夜性刺激在线观看免费| 国产成人1024精品下载| 国产精品免费电影| 国产无码网站在线观看| 超碰91免费人妻| 色噜噜在线观看| 免费不卡视频| 国产午夜精品鲁丝片| 人妻21p大胆| 99re这里只有国产中文精品国产精品 | 亚洲无码高清视频在线观看| 亚洲精品成人福利在线电影| 在线99视频| 一本色道久久88亚洲综合| 国内熟女少妇一线天| 午夜成人在线视频| 亚洲无码91视频| 国产精品美人久久久久久AV| 久久www视频| 一本一本大道香蕉久在线播放| 午夜日b视频| 91麻豆国产精品91久久久| 日韩高清一区 | 精品亚洲国产成人AV| 国产av一码二码三码无码| 免费看美女自慰的网站| 久久久精品久久久久三级| 理论片一区| 亚洲a级毛片| 国产综合日韩另类一区二区| 蜜桃视频一区二区| 亚洲无码高清免费视频亚洲| 亚洲精品视频免费| 亚洲区第一页| 91久草视频| 中文字幕久久亚洲一区| 免费99精品国产自在现线| 国产亚洲精品无码专| 一本综合久久| 亚洲综合色在线| 欧美国产三级| www.亚洲一区| 日韩免费中文字幕| 任我操在线视频| 国产精品三级av及在线观看| 亚洲欧美另类日本| 日韩精品亚洲一区中文字幕| 四虎影视无码永久免费观看| 久久特级毛片| 一本久道久综合久久鬼色| 99精品在线看| 美女无遮挡拍拍拍免费视频| 成人久久18免费网站| 亚洲综合色吧| 国产啪在线| 久久黄色视频影| 久久久久人妻一区精品色奶水|