第308章 杞人憂天的煩惱

关灯護眼    字體:

[上一章] [目錄] [下一章]

不要以為對強人工智慧進行規則設計很麻煩。

其實和規則有關的設計幾乎充斥著整個人類生活中。

就以充電器為例吧,一個不起眼的充電器裡面很可能擁有著好幾種充電協議進行著約束。

透過設計明文規則,限制 AI 的行動範圍也不是做不到的事情。

說起來現在人們對強人工智慧的擔心多多少少有點杞人憂天。

強人工智慧雖然是人工智慧發展的終極目標。

可是強人工智慧哪有那麼容易實現呢?

強人工智慧想達到的技術原理倒是不複雜,相應的技術指標也容易說清。

無非就是自主意識、自主學習、自主決策。

或者更加通俗地說,就是要機器去學人。

學人認識世界的方式並再基礎上嘗試利用機器學習進行邏輯層面的彷生從而復現人們認識世界的方式。

道理誰都懂,可是具體實行的時候卻有著各種各樣的難度。

前世人工智慧鼓吹的很牛逼。

反正直到林灰重生前夕,那會人們也沒鼓搗出強人工智慧。

話說回來既然強人工智慧有風險且實現起來很困難。

為什麼還要追求強人工智慧呢?

首先是強人工智慧相比於弱人工智慧會大幅度減少訓練成本。

前世人工智慧方面的應用普遍都是依靠大資料進行訓練的。

聽起來帶著“大資料”三個字很高大上的樣子。

但實際上操作起來就很苦逼呵呵了,而且藉助於大資料很多情況下實際是不得已為之。

都知道人工智慧是追求機器能夠像人那樣去處理問題。

可是要知道人學東西可是是從小樣本進行學習。

就拿影象分類這個小領域來說吧,人對影象進行分類,實際上根本不需要大資料。

只需要很少幾個樣本就可以做到準確分類。

兩三歲小孩開始認識世界的時候。

父母為了讓孩子認識動物也不是給孩子看成千上萬的照片,而是只給孩子看些動物圖集就可以了。

這些圖集可能依舊十幾頁幾十頁這樣,這個樣本規模實際是很小的。

再具體一點,如果想讓孩童知道什麼樣的動物是貓。

頂多再給他看幾張貓的圖片,並且告訴他貓有什麼特徵,和其他動物像狗或者豬有什麼區別的話。

很快,小孩可以很快很準確的識別狗。

這些都是小樣本的訓練。

可是前世的人工智慧想要實現同樣的功能。

卻需要相當大規模的資料去訓練。

也就是通常意義所說的要靠大資料去喂。

同樣拿剛才舉得例子來說,同樣是識別動物,要神經網絡學習做到兒童識別動物的水平。

就不說現在這個時空十分拉跨的神經網絡應用了。

就是依託於前世比較先進的深度殘差神經網絡。

想達到人類孩童對動物影象的區分的話。

也需要成千上萬張圖片才能進行比較充分的訓練,才能再實際應用時得到比較準確的結果。

之所以神經網絡學習“學得慢”“學得費勁”原因在於

曾經的弱人工智慧所主要一來的深度殘差神經網絡還沒有邏輯思考、聯想和推理的能力。

而藉助於強人工智慧則完全沒必要有這方面的擔憂。

一旦強人工智慧能夠實現突破,不光是傳統的神經網絡學習訓練更加容易。

甚至於藉助於強人工智慧還可能助力於基礎學科方面研究的突破。

這些都是人們追求強人工神經網絡的原因。

除此之外科研人員追求強人工網路還有很多原因。

比較值得一提的是。

部分科研人員認為生物學上的人類是有劣根性。

人類渴求更加完美的自己。

很多時候對強人工智慧甚至是超人工智慧的渴求同樣也是人類在追求更加完美的自身而已。

這不光是這一單一神經網絡的局限性,事實上也正是弱人工神經網絡的局限性之所在。

理想很豐滿,現實很骨感。

前世人們都沒搞出強人工智慧,更不要說在神經網絡學習方面各個方面都略有滯後的今生了。

現在的科研情況不要說是強人工智慧的實現,事實是就連弱人工智慧都玩明白。

時下科研人員鼓搗出的神經網絡學習演算法仍然缺乏人類這樣的聯想、記憶、學習、推理等高階功能。

【目前用下來,聽書聲音最全最好用的App,集成4大語音合成引擎,超100種音色,更是支持離線朗讀的換源神器,huanyuanapp.org 換源App】

想依靠這樣的演算法搞弱人工智慧都費勁。

真不知道為什麼這種情況下居然還有人操心什麼人工智慧倫理和機器倫理所帶來的風險。

事實上就算林灰藉助於現有的資訊優勢做文章也只能對弱人工智慧做文章。

而對強人工智慧同樣手足無措。

這種情況下林灰倒是覺得時下的人們與其操心這些風險之類的不著邊際的事情,還不如真正搞搞具體實在的研究。

退一步講,縱然是有風險就望而卻步嗎?

世界上有什麼事情是完全沒風險的?

林灰倒是覺得,人工智慧有適當的風險反而有助於人工智慧正確的發展。

舉這樣一個例子,神廟逃亡遊戲內容和大多數跑酷遊戲都非常相似,越過重重障礙和陷阱,不斷向前飛奔。

不過在神廟逃亡裡玩家控制的是一個印第安納瓊斯似的人物,在熱帶雨林的某個古老神廟中逃出,被神廟中一群猴子模樣的惡魔守衛追趕。

人物是自動不斷向前飛奔的,而玩家則需要控制他避開逃亡路上遇到的各種危險。

一路上各種危險,反而讓人更加專注於跑酷本身。

同樣的道理,當某項技術有招致一定風險的可能的時候。

適當的已知風險反而可能有助於研究。

因為科研人員或許反而會自覺的遠離相應的風險。

從而更加專注於演算法邏輯和應用場景。

……

或許這種表述也不夠嚴肅。

但林灰是始終堅信的發展中的問題要靠發展來解決。

不能因為發展可能存在問題就拒絕發展。

人工智慧方面的發展同樣是如此。

縱然人工智慧可能引發一定層面的爭議。

但林灰同樣相信很多科研人員同樣和他持有相同的觀點。

至少林灰是知道的,尹芙·卡莉和他的看法是一致的。

[上一章] [目錄] [加入書籤] [下一章]
推薦閱讀
相鄰閱讀