“就是不知道這個模型的水平怎麼樣了。”
陳騰沒有細看係統給的U盤。
不用看都知道,他肯定看不懂的。
第四個,大數據統計分析技術。
這項技術是騰達目前具備,但同時還是需要的。
因為AI的學習與成長,需要依賴的就是龐大的數據庫。
沒有龐大的數據庫,AI什麼都不是。
再怎麼精妙的模型和,都需要龐大的數據庫。
而這個龐大的數據庫,又必須精挑細選數據源。
優秀的數據可以幫助AI更加快速地成長,達成想要的目標。
反之,垃圾的數據庫很有可能會導致AI倒退。
拿圍棋界的阿爾法狗舉例。
就算是一開始阿爾法狗什麼都不會的時候,背後的團隊也絕對不可能給它喂兩個臭棋簍子下出來的對局。
喂的數據,一定是經過精挑細選的高水平對局。
到了阿爾法狗天下無敵的時候,人類的棋局也不會再往它的數據庫裡喂了。
為什麼?
因為這個時候,哪怕是人類頂尖高手的對局喂進去,那都屬於汙染數據庫了。
那麼新的問題來了,如何精挑細選優秀的數據喂進去呢?
圍棋這種還好,可以通過人工的方式把數據喂進去。
那更加複雜的模型呢?
兩個方法。
第一個,繼續加人。
核心成員不夠,那就外包團隊。
每個人在輸入圖形驗證碼的時候,都相當於是他們人工智能的外包團隊,幫他們喂數據。
第二個,讓其他經過簡單訓練的AI幫忙篩選一遍數據,將一些汙染能力比較強的數據給篩出去。
這就需要用到大數據統計分析技術了。
這個技術非常地籠統,應用也非常地廣泛。
短視頻平台給用戶的喜好打標簽,分析用戶喜歡的視頻類型,就是這項技術的應用。
將數據喂給Gpt這樣的人工智能之前,也要經過預先的數據分析。
但就這兩樣的數據分析,完全又是兩個方向的數據分析。
雖然名字一模一樣,實際的內容和具體的技術又南轅北轍。
陳騰打開係統給的大數據統計分析技術。
在技術原理之前,係統還貼心地附上了介紹說明。
“總算是有能看懂的了。”
陳騰詳細地看了一遍這個介紹說明,發現係統給自己的這項技術非常全麵。
文字、語音、圖像、視頻……以及其他各種各樣複雜的數據處理技術都有。
“這個技術好啊。”
陳騰讚歎。
人工智能從訓練到使用一共三步。
數據選擇——數據處理——人工智能學習訓練。
有了係統給的這項技術,不管是想要訓練什麼類型的人工智能,在第二步上都會省下很多很多的時間。
“看來他們有的學了。”
陳騰又往下拉了拉剩餘的內容。
剩餘的內容足足有數千頁,且都是比較複雜的內容和理論。
這些東西想要研究明白,就不是短時間內可以做到了。
不過要是學明白了,騰達的人工智能也會向前一大步。
陳騰看完這項技術,目光落在了第五個獎勵上。
【第一代FNct架構方案】。