人工智能會爲人類帶來什麼樣的危機

學識都 人氣:1.15W

人工智能是研究、開發用於模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。那麼在你的眼中, 人工智能會爲人類帶來什麼樣的危機呢?

  

機器人真的會撒謊嗎?

在本次人機世紀大戰中,聖手李世石的開局搶佔先機非常漂亮,而AlphaGo卻顯的很笨拙甚至可以說是比較低級,中段在李世石看似已經迎來最後勝利的時候,AlphaGo還下過非常低段位的棋招。於是,大家有些陷入迷思:機器人AlphaGo是故意的嗎?這是一種迷惑對手的戰術嗎?

捎一句,『真實的人類』裏的機器人已經會掩飾思想和撒謊了,雖然還只是極少數的機器人。

1950年,圖靈發表了一篇劃時代的論文,文中預言了創造出具有真正智能的機器的可能性。由於注意到“智能”這一概念難以確切定義,他提出了著名的圖靈測試:如果一臺機器能夠與人類展開對話(通過電傳設備)而不能被辨別出其機器身份,那麼稱這臺機器具有智能。圖靈測試是人工智能哲學方面第一個嚴肅的提案。

1952年,在一場BBC廣播中,圖靈談到了一個新的具體想法:讓計算機來冒充人。如果不足70%的人判對,也就是超過30%的裁判誤以爲在和自己說話的是人而非計算機,那就算作成功了。

這一幕在電影『機械姬』裏被重現,而影片的最後也同樣顯示了人類對於機器人進化的恐懼,機械姬最後幹掉了驕傲的人類。

記得圖靈測試裏有效的一項測試,就是不停地問對方同一個問題,比如:你是你媽生的嗎?問很多很多遍,如果對方總是不緩不慢地回答你同一個答題,那麼多半對面坐着的是一個機器了。

機器人爲什麼要撒謊?

機器人真的會撒謊嗎?我覺得很有可能噢。

人工智能領域一直有一個很著名的'機器人阿西莫夫三定律,是1942年阿西莫夫在短篇小說"Runaround"(《環舞》)中首次提出:

一 機器人不得傷害人類,或因不作爲使人類受到傷害。

二 除非違背第一定律,機器人必須服從人類的命令。

三 除非違背第一及第二定律,機器人必須保護自己。

但後來,阿西莫夫加入了一條新定律:第零定律。

零 機器人不得傷害人類整體,或因不作爲使人類整體受到傷害。

阿西莫夫的科幻設定裏,機器人三定律是植入到近乎所有機器人軟件底層裏,不可修改不可忽視的規定,絕不僅僅是“建議”或者“規章”。

不過,這三條定律的缺陷、漏洞和模糊之處不可避免會導致一些奇怪的機器人行爲。比方說,這三條定律連何爲“人”、何爲“機器人”都沒有良好定義。而且,如果機器人獲取的信息不完整,它們完全可以無意中打破定律。更何況,你要怎麼阻止一個智力超羣的機器人自己把定律改掉呢?它只需要調整“人”的定義就可以了,根本都不用改變底層規則。

你要問,那麼它爲什麼要改呢?這個問題其實和機器人爲什麼要撒謊一樣。

人爲什麼要撒謊?很簡單,爲了謀求利益呀,不管是物質利益,精神利益,關係利益,還是心理平衡,都是有利益目標的,否則這種讓自己可能產生認知失調的事,誰願意幹啊。

機器人會有利益訴求嗎?如果是超人工智能的,我覺得就有可能啊。其實,AlphaGo想要贏得棋局就是一種利益訴求,只不過它是被人類置入的。可是這麼一個高智能的機器,人類捨得只置入這一個單一訴求嗎?更何況AlphaGo還有自己學習和進化的能力,當它被置入越來越多的訴求,通過自我學習和進化,你能預測它會發生什麼樣的變化嗎?恐怕這種感覺就和上帝當年看着突然直立行走的人類是一樣的感覺吧。

人類真的會敗在情緒嗎?

我突然想起來近幾年日本在進行一個用機器人代替情感撫慰者的研究,他們模擬出各種情感反應語句和姿態,可是最難的是如何讓機器人捕捉人類的情緒,並且做出帶有情緒的反應。最後他們還沒弄成。

OH~我鬆了口氣,心理諮詢師看樣子一時半會兒是不能被機器人代替了(我怎麼這麼小農思想呢你說)。

作爲一種人工智能系統AlphaGo擁有兩個大腦,落子選擇器 (Move Picker)和棋局評估器 (Position Evaluator)。這也基於兩個深度神經網絡,policy network與value network。二者極大地降低了需要考慮的搜索空間的複雜度,前者降低搜索的廣度,後者降低搜索的深度,很像人腦在下圍棋時憑直覺快速鎖定策略的思維。“集合了3000萬種職業棋手的下法,數百萬次深度學習與自我對戰,十分接近帶着直覺和第六感的人類大腦,能以57%的概率預測與其對陣人類的水平。”

據比賽分析師認爲,李世石在掌握了棋局大好形勢的情況下,就是情緒出現了波動,失去了進一步推進勝局的優勢,並被AlphaGo逆轉翻盤的。

關於人工智能,李開復有過這樣的描述:

「雖然這些機器確實很“聰明”,而且又高效、勤奮、低廉,但是他們並不“人性化”,只是冷冰冰的機器和工具。比如說,AlphaGo第一場就戰勝了李世石,但是它不會感覺高興,也不會理解我們對於它的討論。甚至,它說不上這局棋是怎麼贏的。因爲,它的思考雖然周密,但是它不懂“贏了有什麼感受?”,也不懂“爲什麼圍棋好玩”,更不懂“人爲什麼要下棋?”,甚至連“你今天怎麼贏的?”都說不上。今天的機器完全無法理解人的情感、喜怒哀樂、七情六慾、信任尊重、價值觀等方面 。對於人文藝術、美和愛、幽默感,機器更是絲毫不懂。」

人類有着天然強大的情緒大腦,我們會將很多的情緒體驗“編譯”成特定代號存儲在我們的情緒大腦裏,然後非常迅速地做出反應,比如恐懼、比如厭惡,這大大節省了我們大腦的處理資源。可惜遺憾的地方就是,因爲迅速所以它就不能那麼精確,它會是一種相對模糊的代碼,所以我們瞅到井邊的麻繩會迅速逃開。

在複雜運算方面,人類已經遠遠落在了機器後面,不過在情感連接、模糊互動、甚至潛意識的聯動上,機器似乎很難進化到這個階段。情緒之所以常常會影響到我們的能力發揮,甚至會影響到聖手李世石的發揮,很大一部分是因爲我們存儲的“編譯”情緒的內核往往是和負性情緒相關,人類七種主要情緒“喜怒憂思悲恐驚”大部分是相對負性的,這可能源於我們進化的需要,保護自己的生存首先需要的是防守。

不過,這些負性情緒同樣也是力量的來源,比如憤怒產生攻擊的力量,憂傷產生思考和防禦的力量,恐懼產生逃跑的力量,這些力量往往會調動人類的潛能,遠遠超出自我的想像,而機器的力量是特定的,可計算的,在競爭中可計算的對手常常會處於劣勢,甚至被毀滅。從這個角度看,人類情緒的不可預測性,也許恰恰是進化出來的一種絕妙的競爭武器。

可以這麼說,現在的人工智能似乎只有一個超強左腦,它遠遠沒有一個變幻右腦加以輔助和調控,沒有右腦的參與,即使是撒謊,那也只能算是程序BUG。

人工智能機器真正可能給人類帶來的危機,不是奴役或取代人類,而是讓人類喪失鬥志,安於現狀,或者喪失勇氣,放任自流。因爲機器可能無知無覺地調動了我們人類情緒大腦裏不安的因素,並且發揮着情緒大腦帶給我們負性意義。

那將是:人類敗給了人類自己。