雖然這些專案林灰都有涉獵的打算。
但顯然這些專案有先有後。
涉及到fuchsia OS,沒有一隻足夠強大的技術團隊想復現作業系統什麼的基本是白日做夢。
哪怕只是一個手機操作系統。
最起碼也得菊廠水平甚至是更高水平的整體實力。才有實力染指。
而這任重道遠啊。
即便林灰那有前世的東西作為臂助。
但沒有強大的技術團隊合理性該怎麼解釋呢?
而且就算是有技術團隊。
遇到技術團隊過於拉跨的情況下想弄出技術來也需要比較隱晦的操作。
區塊鏈的話雖然很重要。
但區塊鏈這東西非白即黑,不是很適合林灰。
“黑”的地方很容易翻車。
“白”的地方估計也只能小打小鬧。
搞搞數字藏品、數字認證什麼的。
想真的大有作為的話適合擁有一定的社會地位&實力之後跟官方一塊搞。
即便是大有作為,涉及到盈利什麼的就不要想了。
能收穫到名聲什麼的就不錯了。
而涉及到人臉識別短時間也不適合涉足。
將來要做人臉識別的話,林灰大機率也是從第三代人臉識別即自動人臉識別做起。
涉及到自動人臉識別的幾條技術路線林灰倒是蠻清楚的。
無非就是基於人臉特徵點的識別演算法、基於整幅人臉影象的識別演算法、基於模板的識別演算法、利用神經網絡進行識別的演算法、利用支援向量機進行識別的演算法這些。
儘管這些演算法都能實現自動人臉識別。
但林灰卻更清楚哪個更容易實現。
客觀來講,在這幾種演算法中以“利用神經網絡進行識別”這種演算法更為容易。
而涉及到神經網絡識別什麼的跟深度學習有著千絲萬縷的聯絡。
深度學習又和人工智慧是姻親關係。
總之,人臉識別和人工智慧有著千絲萬縷的聯絡。
前世人臉識別什麼的也正是在人工智慧出現之後的才騰飛的。
當然了僅僅是人工智慧還不夠。
人臉識別技術涉及到人工智慧和大資料這兩個東西的交叉,可能還會涉及到關於雲計算之類的一些東西。
總而言之,這東西短時間內並不是很適合林灰。
中短時間內看的話,林灰還是應該做人工智慧。
關於人工智慧林灰先前已經有過很多的思考了。
儘管人工智慧方向也未必是最好的切入點,但卻是最適合林灰的。
畢竟人工智慧什麼的林灰算得上相當熟悉的。
前世林灰沒少跟涉及到人工智慧的東西打交道。
而且這個時空涉及到人工智慧這個方向林灰已經做了很多準備了。
之前林灰在生成式摘要演算法方面所做的佈局某種程度上而言就是為正式進入人工智慧這個領域做鋪墊。
之所以以此入局,因為生成式摘要演算法是自然語言處理領域和機器學習的一個交叉學科。
而這個分支學科又恰好門檻不高,下限很低。
以此介入的話很正常。
但這個分支學科同時上限很高,以此作為破局的方向也很不錯。
雖然林灰能藉助於生成式摘要演算法這個細分學科破局。
但這裡實現的破局僅僅是學術上的破局。
學術上的破局意味著林灰能在一定程度上攫取學術上的地位。
但這遠遠是不夠的。
僅僅是學術上的破局是不足以充分調動市場的熱情的。
雖然對於一般的學者來說學術上的破局已經可以很讓人興奮的了。
可林灰從發表的第一篇專利開始,林灰就註定了不會是純粹的學者。
涉及到人工智慧這一方面,林灰看中的是人工智慧的錢景。
萬億級別的市場,換誰不會心動呢?
說萬億級別都保守了,林灰記得以前在某工作報告上看到這樣的描述:
“人工智慧核心產業規模就上萬億,附帶經濟效益超十萬億。”
可以說錢景和前景都很廣闊?
即便兩個時空出現一些偏差,這種涉及到大的方略的也只能是大差不差。
而想要將人工智慧商業化的熱度炒起來,僅僅是學術上的地位是不夠的。
歸根結底,學術上的地位能加強對人才的號召力。
但要想商業上利益最大化,還需要找到人工智慧真正的爆點。
像愛因斯坦一堆理論研究,普通人根本無從得知細節。
但只要將愛因斯坦的研究跟“穿越時空”扯上關係。
普通人或許依舊不是很懂愛因斯坦的理論。
但這並不妨礙人們理解愛因斯坦理論牛比了。
這麼說的話,“穿越時空”就是愛因斯坦理論的爆點。
什麼叫爆點呢?
爆點是指能點燃吃瓜民眾情緒的點。
爆點的出現能讓普羅大眾對技術感興趣。
即便不能讓普羅大眾感興趣。
最起碼也得讓資本頭頭/金主感興趣。
金主不感興趣,怎麼能愉快的圈錢呢?
以生成式摘要演算法作為人工智慧這方面的切入點/入局點很不錯。
只要邏輯自洽就能夠順利平穩完成學術上的閉環成長。
但從讓金主感興趣這點出發的話。
生成式摘要演算法這玩意註定不能成為人工智慧的爆點。
想要讓一眾金主從生成式摘要演算法這方面看出人工智慧這方面廣闊的錢景似乎是天方夜譚。
事實上,涉及到生成式摘要演算法這東西別說是讓金主知道是什麼東西了。
很多從業人員也摸不著頭腦。
林灰前不久看到普林斯頓大學的學報稱:
普林斯頓大學數學系同Google SEARCH組成了一個新型摘要演算法研究團隊。
這個研究團隊聲稱將搞出一個比林灰弄得演算法更高效的新型演算法。
這個團隊的課題名稱:
——“基於LSTM長短期記憶神經網絡實現高效摘要演算法”?
看到這個名稱,林灰卻有點哭笑不得。
兩個很頂尖的團隊明明是想搞定一個更牛的摘要演算法,為什麼卻要在長短期記憶神經網絡上下功夫呢?
林灰一時之間有點無語,腦海中能想到的形容詞只有“南轅北轍”。
林灰印象中“長短期記憶神經網絡神經網路”最初提出來是為了處理訓練傳統迴圈神經網路時可能遇到的梯度消失和梯度爆炸問題(然而也沒把這個問題給解決了)
雖然長短期記憶神經網絡在處理長序列文字的時候可能會有一定的優勢。
但只是憑藉這玩意顯然很難搞定生成式摘要演算法關系不大啊。
以這個為研究方向,林灰很懷疑這些人究竟能否搞出來什麼成果。
而且此次谷歌研究院是跟普林斯頓大學數學系合作的。
林灰前世沒少看一些學術論壇。
雖然正經知識沒學到多少。
但關於普林斯頓大學數學系的一些軼事趣談還是略知一二的。
普林斯頓大學數學系充斥著性情很古怪卻又很執拗的人。
林灰感覺谷歌研究院同普林斯頓大學數學系進行合作的話大機率會被帶跑偏。
【新章節更新遲緩的問題,在能換源的app上終於有了解決之道,這裏下載 huanyuanapp.org 換源App, 同時查看本書在多個站點的最新章節。】
更何況此次二者的研究方向還是LSTM這個方向。
林灰覺得此二者進行合作研究偏離航向是大機率事件。
但林灰也不能鬆懈。
適當的高估對手是有必要的。
一個人成功應該是基於自身更為強大的基礎上。
而不是要指望著對手更菜。
不過有一說一,這些追隨者朝著錯誤的方向使力也說明了一個道理。
即生成式摘要演算法這個方向確實不適合作為人工智慧的爆點。
專業人員都容易混淆的事物。
但像生成式摘要演算法這麼容易讓人雲裡霧裡的專案顯然是不適合作為人工智慧的爆點的。
莫非一點點給普羅大眾解釋麼?
快節奏的時代並不是所有人都那麼有耐心。
究竟什麼適合作為人工智慧的爆點呢?
等等。
前世人工智慧究竟是怎麼火起來的呢?
林灰突然思考起這個問題。
想到了前世林灰突然有了答桉:
——阿法狗AlphaGo。