喜歡讀書是好事兒,但是小說也讀得那麼認真,不停問問題,就有點過份了。
尤其是《蘇廚》這種古代知識滿滿的小說,很多東西都在麥小苗認知範圍以外,逮到了原創作者就在身邊,好奇寶寶的問題簡直就是一直不斷。
比如第一章里周至寫了眉山城門口的小橋叫做「通津橋」,說明這個橋過去不遠就是碼頭,大家可以在那裡坐船去往上下游城市。然後麥小苗就問其餘地方如文廟,學署,書院,文昌宮的區別;又比如為什麼叫附廓縣,為什麼附廓縣就會存在州府縣府兩個衙門;火神廟是祭祀誰的,玉清觀是祭祀誰的,東嶽廟是祭祀誰的等等……
實話實說,就連最鐵的書友也問不到這麼細緻的地方來,或者說許多對於國人來講本身就屬於常識,不過對於麥小苗這種中國歷史文化「人菜癮大」的讀者來說,那就啥都想問了。
關鍵是有些問題還十分複雜,比如要講玉清觀就要講到道教三清中的玉、上、太三清,然後講玉清元始天尊在道教中的地位和宋代對道教的推崇,以及道教在蜀中的影響力等等,國學是可以從一個點扯出一張網的學問,因此「玉清觀是祭祀誰的」這個問題,本身就是一個大題目。
周至本來是要改一改自己拉下的功課的,現在有了數字圖書館搜尋引擎後,師祖祖的論文當中留下的許多讓周至疑惑,或者周至自己所欠缺的知識點,就可以通過搜索相關內容解惑補齊鞏固,結果遇到一個需要科普的小朋友,這就專心不起來了。
「小苗要不這樣。」周至想了想:「小說帖子本身就有留言功能,你將問題留在章節里,等書友們來回答好不好?」
「可以。」麥小苗倒是從善如流,然後又問出一個問題:「可是我現在是看的存稿,還沒有發布啊?」
「啊這……」周至想了想,打開文學論壇女生言情板塊:「這幾本小說熱度都挺高的,要不你看這種吧,好多女生都喜歡看。」
「不看!」
「為什麼?」
「看她們的書哭得稀里嘩啦的,衛生紙不夠用!」
「呃……」周至猶豫了一下,一咬牙:「我還有一本小說,暫時還沒準備發出去,寫的是一個大學生回到家鄉建設農村的,你看不看?」
「是聯和鄉這樣的農村嗎?你還真會就地取材。」
「呃……倒也不是,背景是我的老家,蠻州市夾川縣。」
「你家鄉?」
「對!」
「好啊好啊,你給我看看!」
《山溝》這本書就好多了,麥小苗終於不再發問,還不時給書里的內容逗得咯咯直笑,看來頗為喜歡其中的內容。
兩人就這樣度過了一個晚上,偶爾喝點果乾煮米酒,吃點堅果,然後一人看小說,一人看論文,要不是周至催麥小苗去刷牙洗臉,這妞還不想休息。
周至不由得搖頭,網絡文學後勁大啊……
但是第二天報應就來了,四葉草集團動作很快第一批資源已經到位組網,包括算力與存儲空間。
於是情況就來了一個顛倒,麥小苗在部署她帶回來的算法程序的時候,周至就變成了昨晚麥小苗聽周至科普時候的那個樣子。
對於四葉草集團接包的VC程序開發,周至也是管理了的,甚至還參與了一些編寫方案的討論,對於編程,甚至編寫工具類程序,他也並不是完全的門外漢,這是周至穿越到這一世以來頗為得意的一點,就是自己上一世的專業不但沒有荒廢,反而更上了層樓。
但是他上的這層樓和麥小苗腳下起步的台階相比,相差得也有些遠,這不是變成能力上的限制,而是數學理論上的鴻溝。
「設神經元的輸入向量和參數向量分別為集合A和集合B,這兩個集合又可被稱為權重,它們之間存在這樣一個非線性函數關係,這樣的函數關係是輸入向量與參數向量作用之後,得到了一個輸出向量C,這個C被我們稱為激活值,而這個非線性函數則被稱為激活函數。」麥小苗倒是講得十分認真:「這裡的A(0)=1是個偏置單元,與線性回歸中的零次項一致;」
「激活函數可以用Logistic/Sigmoid函數、tanh函數、ReLU函數等,用到激活函數的原因是如果不用的話,那麼線性成分的迭加還是線性成分,整個神經網絡依然是線性的,無法擬合非線性假設。」
「我們給每個神經元都套上非線性函數,就能夠讓網絡真正的擬活,注意是擬活而不是激活,也就是說,現在我們構造的這個激活函數,其實是通過給線性單元套上非線性函數,用來擬合非常複雜的非線性運算的情況,也就是神經化。」
「於是機器就能夠通過深度學習,識別出『莫聽穿林打葉聲,何妨吟嘯且徐行』;『大明湖,明湖大,明湖上面有荷花,荷花上面有蛤蟆,一戳一蹦躂』,孰優孰劣了。」周至也學得十分認真。
「哈哈哈哈……」麥小苗不由得大笑了起來:「後面這首是誰寫的?太有意思了……」
「一個軍閥,山東王張宗昌,魯迅先生曾經給他取過一個外號,叫『三不知將軍』,即不知道自己有多少兵,不知道自己有多少錢,不知道自己有多少姨太太。」
「哈哈哈……」麥小苗又被逗得忍不住笑了,按著自己的小肚子艱難地想憋笑:「要讓機器達到這個水平還有點難,不過幫助我們的圖形識別系統尋找匹配的邊緣,應該比現在的程序效率……要高一些吧……」
「小苗你不用跟我打埋伏。」周至說道:「能提高多少效率其實我並沒有抱多大的希望,就算資源多浪費一倍,效率減緩一倍,我們都可以接受,只要新的算法能夠成功就行,因為這是思路的勝利,我們先解決可行不可行的問題,再解決效率提升的問題。」
麥小苗笑了,說回了模型上來:「我們接受輸入的第一層為輸入層,提供輸出的最後一層為輸出層,中間所有的層為隱藏層。」
「隱藏層越多、隱藏層神經元越多,神經網絡就能擬合更複雜的情況,但是也更難訓練。」(本章完)