首頁|滾動|國內|國際|運營|制造|監管|原創|業務|技術|報告|測試|博客|特約記者
手機|互聯網|IT|5G|光通信|LTE|云計算|芯片|電源|虛擬運營商|移動互聯網|會展
首頁 >> 必讀一 >> 正文

任正非達沃斯發言實錄:美國不必過于擔心華為的成長

2020年1月22日 09:50  新浪科技-自媒體綜合  

來源:華為

2020年1月21日,華為創始人兼CEO任正非出席在瑞士達沃斯舉辦的世界經濟論壇年會并發言。以下為任正非發言紀要。

1、主持人Zanny Minton Beddoes,《經濟學人》主編:我想找到你們的共通點,就是你們對歷史的熱愛。赫拉利教授是一名專業的歷史學家,在我看來,任先生也是非常喜歡歷史的,您一直關注一些歷史問題。因此,你們兩位都能很好地和我們分享下對未來發展的看法。在接下來半小時,我們主要針對三個較寬泛的問題進行討論。

首先,這場科技軍備競賽會讓哪些因素面臨風險?對人類來說,對世界來說,這個科技軍備競賽有多重要?這個問題僅關乎市場主導地位,還是說這是一個更深層次的問題,關乎市場體制的未來發展、民主的未來發展、以及未來誰將成為全球主導者?哪些因素會處于危險境地?

其次,這場科技軍備競賽會帶來什么后果?會發生什么?全球是否會分裂為兩個生態系統?這意味著什么?

再次,我們需要怎么做才能避免最壞的結果?達沃斯論壇正試著避免用過于樂觀的角度看問題。所以我希望你們能分享一下,我們究竟應該怎么做,才能確保產生最好的結果。

首先,有請赫拉利教授分享下您對第一個問題的看法。那就是哪些因素會處于危險境地?我想從您的書中選取一句話,作為我們今天討論的開始。您寫道,未來一百年,人類將迎來前所未有的變化。人工智能和生物技術可能會破壞個人自由這一觀念,讓自由市場和自由民主制度成為過去式。民主如果以當前的形式發展的話,將無法抵御生物技術和信息技術融合的侵蝕。所以,我們是不是可以說,面對這一發展趨勢,很多方面都將面臨風險,為什么?

尤瓦爾·赫拉利:確實如此。從淺層次來說,十九世紀發生的工業革命會重演,行業領袖基本擁有在經濟和政治領域主宰世界的權力。二十一世紀的人工智能革命以及生物技術革命會讓歷史重演,而且歷史也已經在重演。在我看來,當前的軍備競賽就是一場帝國軍備競賽,很快會導致數據殖民,不需要派一兵一卒,只需要獲得某個國家的所有數據就能進行數據殖民。

但是在更深、更廣泛的層次,我認為這將會塑造人類的未來,塑造生命的未來,因為新技術很快會讓一些企業和政府能夠侵入人類,不再是侵入電腦、智能手機、電子信箱和銀行賬戶,最重要的是可以侵入人類。

要侵入人類,需要很多生物學方面的知識、大量算力,尤其是大量數據。如果你們手里有足夠多的關于我的數據,有足夠的生物學知識和算力,你們就能掌控我的身體、大腦和人生。你們甚至可以比我還了解我自己,F在已經非常接近這一點了。一旦達到這一臨界點,民主、自由市場……實際上所有的政治體系,包括集權政體,都將改變,現在還不清楚越過這一臨界點后會發生什么。

Zanny Minton Beddoes:從很多方面看,在成為一個監控國家方面,中國已經走在前面,您認為這是否預示了未來的發展趨勢?

尤瓦爾·赫拉利:目前,我們看到中國的國家監控和美國的監控資本主義之間的競爭,所以并不是說美國就沒有監控。美國也有極其復雜的監控機制。從目前的競爭局勢來看,這場軍備競賽中不存在第三個真正意義上的參與者。這場軍備競賽的結果將影響未來20到50年間這顆星球上所有生物的生活方式,包括人類、其他動物以及新的實體類型。

Zanny Minton Beddoes:赫拉利教授剛才分享了他的看法。任先生,您是否同意他對風險的評估結果,即人類和政治體系的未來正在面臨風險?

任正非:我讀過赫拉利教授的《未來簡史》、《今日簡史》,他對人類社會發展的規律,以及科技對未來社會結構與人類意識形態變化的沖突……許多觀點我是認同的。

第一,我們首先要看到科技是向善的,科技發展不是為了作惡,而是向善。人類曾經經歷了一個漫長發展的歷史,在過去幾千年,技術進步緩慢與人們的生理進步基本是同步的,內心沒有恐慌;當火車、輪船、紡織機械……出現的時候,人們也出現一些小的恐慌,但是后來工業社會的發展把這些恐慌消除了;進入到信息社會時代,技術奇點的爆發間隔的周期縮短了,現在電子技術已經高度突破,盡管摩爾定律還會約束電子技術的進步,但是今天把芯片能力推進到2納米、3納米,已經不是問題了。

第二,由于計算機能力的極大提升,已經讓信息技術撒滿了整個世界。加上生物技術、物理、化學、神經學、數學……各種技術的突破、跨學科和跨領域的突破、學科交叉創新的突破,給人類社會積累了足夠的能量,這個能量積累到一定程度,到達臨界點時,都會發生智能爆炸。這個“技術大爆炸”給人們帶來一種恐慌,爆炸是好還是壞?我認為是好的。在新技術面前,人類總會利用它來造福社會,而不是利用它來破壞社會,因為絕大多數人向往未來是幸福的生活,不是向往受磨難。

我剛出生時,原子彈在廣島爆炸。我七、八歲時體會到,人們最大的恐慌就是原子彈,全球都恐慌原子彈。但是,隨著人類社會拉長的歷史鏡頭來看,原子能發電能造福社會,放射性醫學等各方面的應用都造福了人類。所以,今天我們沒有必要對人工智能這么恐慌,原子彈爆炸可能會傷害人類,但今天人工智能的發展不會對人類有多么大的傷害。

當然,我們公司僅僅是研究弱人工智能,在封閉系統中,有清晰規則和完整的信息條件下。有一定條件和數據支撐的,來促進工業、農業、科學、醫療衛生……事業的進步,這是有邊界的。比如汽車駕駛、礦山開采、藥物技術等一系列是有邊界的,這些邊界在人工智能提高以后,大幅度創造了財富。

有人說“在創造財富過程中,會有很多人失業”,這是社會問題。但是,財富多創造出來,總比少好。今天的社會,即使是窮人,絕對財富比幾十年以前也增多了,雖然貧富懸殊拉大,但不等于窮人走向更加絕對貧困。解決社會的貧富懸殊造成的沖突,是社會問題,不是技術問題。如何平衡財富的分配,是各國政府的政策、法律……,對治理提出了挑戰。

Zanny Minton Beddoes:謝謝!您提出了許多非常有趣的問題。我想主要討論其中兩個問題,請赫拉利教授回答。首先是原子彈和原子能的比較。這么比較合適嗎?考慮到這場討論的話題是科技軍備競賽,我認為這樣的比較很有趣。我相信在場的所有人,包括任先生,都認為技術將產生巨大的紅利。赫拉利教授肯定也同意這個說法。我想再問一下赫拉利教授,您認為相比之前的技術突破,人工智能和生物技術在本質上存在很大區別嗎?人工智能和生物技術是否比過去的技術更危險?

尤瓦爾·赫拉利:我們有必要將人工智能和原子彈進行比較。原子彈的出現告訴我們,當人類面臨共同威脅時,就能團結起來,哪怕是在冷戰時期都能夠共同制定規則,避免出現最壞的情況,這是冷戰時期的情形。

和原子彈相比,人工智能的危險不是太明顯,至少對一些行為體來說,使用人工智能將帶來巨大的好處。所有人都知道一旦使用原子彈,就意味著世界末日即將來臨,而沒有人能從大規模核戰中獲勝。

然而,很多人,包括我在內,都認為人工智能軍備競賽是可以分出勝負的。但這是很危險的,因為贏得軍備競賽和主宰世界的誘惑力太大了。

Zanny Minton Beddoes:我想提一個讓您為難的問題。您認為華盛頓還是北京更有這種想法?

尤瓦爾·赫拉利:我認為是北京和舊金山。華盛頓并不完全了解人工智能競賽將帶來什么影響。目前,人工智能競賽的雙方分別是北京和舊金山,但舊金山跟華盛頓的關系越來越近,因為他們需要得到政府的支持。所以其實舊金山和華盛頓并不是完全分開的。另外一個問題是什么?

2、Zanny Minton Beddoes:第二個問題是關于人工智能的。赫拉利教授您剛剛已經大致回答了,所以我想請問任先生。中國顯然是美國的一大擔憂;谖覀儎倓傉劦降膬热,您知道美國為什么如此擔心中國嗎?您認為這種擔憂是合理的嗎?作為一個中央集權的國家,您認為中國應當處于技術前沿,并且如赫拉利教授所說,決定未來社會和個人自由的發展方向嗎?美國在這方面的擔憂是否合理?

任正非:赫拉利教授說美國政府還沒有真正想明白人工智能,我認為其實中國政府可能也還沒有開始想明白。如果這兩個國家開始想時,應該在基礎教育和基礎研究上加大投入。目前中國教育其實還是沿著工業社會的教育方式,主要以培養工程師為中心的教育體系,所以人工智能在中國不可能發展很快。人工智能需要大量數學家、物理學家、生物學家、化學家……,需要大量的超級計算機、超級聯接、超級存儲器,這些方面中國還是一個在科技上剛起步的國家,所以我認為美國是自己憂慮過多了。美國長期習慣是世界老大,認為每件事情都應該是它做得最好,如果某一件事別人做好了,可能它心里就會不舒服,但不舒服并不代表世界潮流。

我認為,全人類最終都應該很好地利用人工智能,研究如何造福人類。赫拉利教授專門講了,要制定一些規范,什么東西允許研究,什么東西不允許研究,來控制它的走向,科技也有倫理問題。赫拉利教授想的電子技術侵入人類思維,和人融成一種新的形態,我個人認為在未來二、三十年內或者更長時間還不會出現。最早出現的是改造生產過程,提高生產效率,創造更多財富。只要有更多的財富,政府有分配的東西,就能平衡社會矛盾。

前段時間《經濟學人》發表我的一篇文章時,我引用了一句話“電子芯片和基因結合起來會形成什么”,《經濟學人》把這句話刪掉了,因為這會挑起一個話題。當時要刪除的稿子給我時,我馬上同意了,因為我知道是自己出了一個難題。

3、Zanny Minton Beddoes:美國政府可能還不太理解人工智能,并且在您看來美國可能高估了來自中國的威脅。不過,您認為當前的科技軍備競賽會帶來什么后果?美國把華為列入黑名單會有什么后果?全球是不是會分裂成兩大技術生態系統?會出現這樣的后果嗎?

任正非:本來華為公司是一家很親美的公司,華為今天之所以這么成功,絕大多數管理都是向美國學習的。因為公司從創立至今,我們聘請了幾十家美國顧問公司來教華為如何管理。在教我們管理的過程中,其實公司整個體系就很像美國,美國應該感到驕傲,因為是它的東西輸出以后給我們帶來了發展,我們是它管理輸出的樣板。

從這點出發,我認為美國不必過于擔心華為在世界上的地位和成長。美國實體清單去年打擊我們,沒起到多大作用,我們當時認為自己基本能夠抵抗,因為過去十多年前已經開始做了一些準備。今年美國可能會繼續升級對我們的打擊,我們會受到一些影響,但影響也不會很大。十幾年前華為實際是一家很窮的公司,在二十年前我自己并沒有房子,租了一個三十多平方米的房子住。錢到哪去了?全部投資在公司研究、開發。如果當時我們對美國有安全感,實際不需要做備份,正是由于我們沒有安全感,才花了數千億做了備胎,應對了去年第一輪打擊。今年第二輪打擊,因為有去年抗受打擊的經驗和隊伍的鍛煉,我們更加胸有成竹,不會出現多大問題。

世界會不會因此分裂出兩個世界呢?我認為,不會的?茖W是真理,真理只有一個,任何一個科學家發現真理,就會廣播讓全世界知道,在科學技術底層,全世界是統一的。但是技術發明本身可以多元化的,這是實現形式的不同罷了。比如汽車有多種型號在競爭,這有利于社會進步,不是強調社會必須唯一推進一種技術標準。所以,世界會不會分裂?科學技術底層統一,是不會分裂的。

4、Zanny Minton Beddoes:赫拉利教授,您如何看待這一點呢?我想問的其實是您在《經濟學人》上發表過的觀點。人工智能或是生物技術領域的軍備競賽幾乎可以肯定都會帶來最糟的后果,最后的輸家必將是人類自己。

尤瓦爾·赫拉利:是的,因為一旦進入軍備競賽之后,很多技術發展和實驗都是非常危險的,而大家可能也會意識到它們是危險的。大家都不希望朝這個方向發展,至少現在是這樣。你可能會想,我不想這樣做,我們是好人。但我們無法信任我們的對手不會這么做。[你會想]美國人肯定在這么做,中國人也肯定在這么做。我們不能被落下,所以我們也必須這么做。這就是軍備競賽的邏輯。

自主武器系統的發展就是一個很典型的例子,這是一場真正意義上的軍備競賽。即使你不是天才,你也會發現這種趨勢是非常危險的。但每個人都在說:我不能落后。這種思想可能會延伸到越來越多的領域。我也認為未來二、三十年,計算機和人類還不會結合變成半機械人。

但未來二十年,我們會看到人工智能在多個方面的發展。不過,我們最需要關注的還是我剛才提到的對人類的侵入。當你掌握人類足夠多的數據,并且具有足夠的算力時,就會比人類自己更了解自己。

我也想聽聽在座各位的看法。我們是不是已經到了某個階段?我不是技術專業人士,所以我想問真正懂技術的人,我們是不是接近或者已經到達了這樣一個階段,也就是,華為、Facebook、政府或者不管是誰,已經能夠系統地侵入數百萬人,從而比這些人自己更了解他們自己?比如,他們比我更了解我自己,包括我的健康狀況,心理弱點和過往歷史等。一旦到達這個點,他們就能夠比我自己更能夠預測和操縱我的決定。不會是完美的。任何預測都不可能完美,但會比我自己做得更好。

Zanny Minton Beddoes:請問任先生,您認為華為到這一階段了嗎?您是不是比其他人更了解他們自己呢?

任正非:赫拉利先生所想象的未來科學技術能否實現,我們還不能肯定,但也不否定。作為企業和社會,我們要更深刻地理解一個客戶,就必須去了解它的數據、信息,比如礦山開采是否可以完全采用人工智能,沒有人是可以的,我們已經實現在幾千公里外遠程遙控開采礦山,如果這個礦山在冰凍地區、高海拔地區,價值一定是存在的。將來一些龍頭礦山(如巴西礦山)實現這種開采方式是可以的,但我們必須對一些企業有深入了解,才可能做成。當然,我們深入了解主要需要礦山專家和電子專家結合起來才可能了解,也只有好的醫生和電子結合起來才能做到遠程醫療。

因此,對人類了解的深入程度,是一步步了解。至于赫拉利教授說“電子侵入人類,人類變成神了”,也不用擔心,因為人到80歲就死了,靈魂是不能繼承的,他不可能成為神人。

5、Zanny Minton Beddoes:赫拉利教授談到自主武器的問題,F在這種武器好像已經存在了,軍事系統中已經有這種武器。您如何看待這種自主武器呢?如赫拉利教授所說的非常危險嗎?如何才能避免自主武器帶來共同毀滅的思想呢?

任正非:我不懂軍事,也不是軍事專家。如果人人都能造出武器,那武器與棍棒差不多,就不是武器了。

6、觀眾:請問赫拉利教授,您為什么認為中美之間會有人工智能的軍備競賽?我們可以看到中國的一些應用都是民用的,沒有競賽的感覺。請問現在是否正在進行人工智能領域的軍備競賽?

尤瓦爾·赫拉利:我所說的軍備競賽不一定指開發武器。要征服一個國家,不一定需要武器。

觀眾:我的意思是商業競爭和國家競爭是否有區別?

尤瓦爾·赫拉利:這兩者之間并沒有清晰的界限,就如十九世紀以及更早期的歐洲帝國主義。所有的商業帝國主義和軍事或政治帝國主義是沒有界限的,F在有了數據之后,我們也看到了一個新現象:即通過數據殖民主義來控制一個國家,比如非洲、南美、中東等地區的國家。想象一下過二十年后,也許一個在北京、華盛頓或舊金山的人就能完全了解位于巴西或埃及的每個政客、法官和記者的醫療史和性史。試想一下,不需要武器、不需要士兵、不需要坦克,就可以了解一個人的所有個人數據,比如美國最高法院的下一個候選人、巴西總統的候選人,我們可以完全掌握他們的心理弱點,知道他們大學干了什么、二十歲干了什么。我們知道他們的所有事情。這樣的話,這個國家還是獨立國家嗎?還是會淪為一個數據殖民地?這就是軍備競賽。

7、觀眾:我是世界經濟論壇的杰出青年,想向兩位提問。首先,全球政府和大企業非常強大,他們可以定義消費者的生活方式,那留給普通人的還有什么權利呢?我是一個技術專家,因此我對信息安全有我自己的看法。但對普通消費者來說,他們還有什么權利呢?

任正非:隨著技術交流越來越方便,人們對事物的認識越來越充分,讓人類變得更聰明,其實是人類的聰明速度在加速。比如,我們現在看小學生課本,已經看不懂了,怎么小學生學這些東西呢;以前我們大學才學習的課程,現在中學已經學完了。這些說明人類在信息社會中實際是進步了,進步了也還是要以人來掌握,不同的人掌握的程度不一樣,那么就業方式就不一樣。人的主觀能動性在社會上應該是存在的,不是被奴役了。

Zanny Minton Beddoes:所以您認為技術讓人有更多能動性和權利?

任正非:是的。

尤瓦爾·赫拉利:我認為技術會起到兩方面作用,既能限制、也能提升個人的能力或能動性。人們,特別是技術人員和工程師,能做的就是設計出不同的技術。比如,人們現在投入了大量精力開發個人監控工具,從而服務企業和政府。但我們當中的有些人也可以決定打造一種完全相反的技術。技術其實是中立的。你們可以設計一個工具來監控政府和大企業,從而服務個人。既然政府和企業這么喜歡監控,如果公民們對他們實施監控,他們也不會在意。比如你是一個工程師,能開發一個人工智能工具來監督政府的腐敗行為;蛘吣銜_發電腦防病毒軟件,也可以開發人腦防病毒軟件,如果有人試圖侵入你的大腦或者操縱你,該軟件就會發出警報。這些都是取決于人們自己的。

Zanny Minton Beddoes:我們的時間到了,但我們在結束時正好談到了一個令人振奮的話題,即創造工具來賦予人們更多能力。非常感謝兩位分享的精彩觀點。

編 輯:章芳
免責聲明:刊載本文目的在于傳播更多行業信息,不代表本站對讀者構成任何其它建議,請讀者僅作參考,更不能作為投資使用依據,請自行核實相關內容。
相關新聞              
 
人物
亨通崔根良:搶占行業發展制高點,成為行業領跑者
精彩專題
MWC19 上海 - 智聯萬物
2019年世界電信和信息社會日大會
中國電信5G創新合作大會
2019年世界移動大會
CCTIME推薦
關于我們 | 廣告報價 | 聯系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網 CopyRight © 2007-2017 By CCTIME.COM
京ICP備08004280號  電信與信息服務業務經營許可證080234號 京公網安備110105000771號
公司名稱: 北京飛象互動文化傳媒有限公司
未經書面許可,禁止轉載、摘編、復制、鏡像
长规律七星彩