久久久国产一区二区_国产精品av电影_日韩精品中文字幕一区二区三区_精品一区二区三区免费毛片爱

機械社區(qū)

標(biāo)題: 各位設(shè)計師,請盡快擁抱AI時代,盡快,盡快! [打印本頁]

作者: 極限思維    時間: 2025-3-11 17:29
標(biāo)題: 各位設(shè)計師,請盡快擁抱AI時代,盡快,盡快!
我原本以為我年紀(jì)大了,跟不上時代了,但今天發(fā)現(xiàn)是很多的年輕人完全沒跟上時代的步伐。在今天這樣一個DEEPSEEK開創(chuàng)的免費的AI時代。很多人居然都沒聽說更沒用過這個。我真的有些震驚。下面附幾張利用AI計算和解決工程問題的圖片,這個時代的AI已經(jīng)極大的提升了個人設(shè)計能力的邊界,不用多久,我相信一個總工帶領(lǐng)一群AI設(shè)計的模式將全面取代設(shè)計院。各位加油,跟上這個時代。
作者: ALANALANALANALA    時間: 2025-3-11 17:39
加油,跟上這個時代
作者: pengzhiping    時間: 2025-3-11 17:41
AI 其實就是一個 可以給你整理電子書的助手,儲存量可以理解為無限制。也會根據(jù)大數(shù)據(jù)進行提取

但真正用到的機械設(shè)計 尚有難度,尤其是涉及現(xiàn)場應(yīng)用 還要經(jīng)驗型的

超靜定結(jié)構(gòu)‌ 這些學(xué)過理論力學(xué) 都知道 如何分配受力計算 屬于常識
作者: 極限思維    時間: 2025-3-11 17:49
pengzhiping 發(fā)表于 2025-3-11 17:41
AI 其實就是一個 可以給你整理電子書的助手,儲存量可以理解為無限制。也會根據(jù)大數(shù)據(jù)進行提取

但真正用 ...

大家需要重新理解AI,今天的AI完全不是整理電子書這么簡單,他不僅僅是昨天的CAD。一個微調(diào)好的,垂直領(lǐng)域的AI會吊打20年的工程師的,這件事不用多久就會發(fā)生,不會超過2年。今天各個設(shè)計院完全有條件訓(xùn)練自己的專業(yè)AI系統(tǒng)了。盡快體驗,盡快體驗。

作者: 極限思維    時間: 2025-3-11 17:59
機械社區(qū)可以組織高手把曾經(jīng)的精華問答,做成高質(zhì)量的訓(xùn)練數(shù)據(jù)集,和DEEPSEEK這樣的公司合作,訓(xùn)練專業(yè)的大模型,AI時代,機械社區(qū)這個古舊的網(wǎng)站問答已經(jīng)完成歷史使命了,需要徹底更新了。
作者: longyucanghai    時間: 2025-3-11 18:02
我用AI輔助設(shè)計已經(jīng)快2年了,感覺很爽
作者: 極限思維    時間: 2025-3-11 18:21
發(fā)一段我和AI的對話,具體回答,各位可以自行問AI。如果你認(rèn)真讀一下,可能會理解今天的AI是什么,不要辜負(fù)這個時代。
1.大語言模型是如何利用全網(wǎng)數(shù)據(jù)進行訓(xùn)練的,能不能用淺顯易懂的例子說明一下,比如你是怎么學(xué)習(xí)GB 150-2011這標(biāo)準(zhǔn)的?
2.那是不是有什么自動化的清理數(shù)據(jù)的的程序,因為我理解靠人工來清理文本和投喂數(shù)據(jù)是項無法完成的巨量工作,特別是考慮你需要各行各業(yè)的專業(yè)人士來清理數(shù)據(jù),確保數(shù)據(jù)質(zhì)量。
3.如果想讓模型精確掌握GB 150-2011的內(nèi)容,需要人工干預(yù)模型的學(xué)習(xí)過程嗎,比方用示例來校核。
4.也就是說像你這樣的模型,如果想要在某一領(lǐng)域表現(xiàn)的更加出色,是需要針對性的做更專業(yè)的訓(xùn)練。這是不是就是所謂的微調(diào)?
5.一個已經(jīng)發(fā)布的大語言模型,比如你這樣的,能通過用戶的反饋來實現(xiàn)自我改進嗎?
6.你這樣的開源模型應(yīng)該是可以通過微調(diào),來構(gòu)建一個專業(yè)領(lǐng)域的模型,比如內(nèi)科醫(yī)生AI,我的理解對吧?
7.模型訓(xùn)練用的數(shù)據(jù)集是個什么樣的東西,能舉個例子嗎?是不是這樣的文件,比如,1+1是輸入,2是輸出,然后把這個當(dāng)成一條數(shù)據(jù)喂給模型。重復(fù)類似的數(shù)據(jù),10以內(nèi)的加減法,然后模型就學(xué)會了泛化10以內(nèi)的加減法。是不是有點類似人類學(xué)習(xí)時的習(xí)題集?
8.大模型的參數(shù)權(quán)重這些,可以不可理解成一種更優(yōu)化的或者更泛化(我可能沒有合適的詞來描述)的算法,比如,如果我們詳細(xì)的知道皮膚骨骼等隨著年齡變化的函數(shù),我們就能用一種算法來描述一個人從孩子到老年的容貌變化。當(dāng)你給定小孩的容貌時,我們就能算出老年時的容貌。但是大模型的話,我們只要連續(xù)給定大量的孩子從小到老的容貌變化的圖片的數(shù)據(jù)集,模型就會調(diào)整參數(shù)權(quán)重,從而得出一個人無法知曉的函數(shù)(如果可以稱為函數(shù)的話)。從而預(yù)測某個孩子的未來容貌。更關(guān)鍵的是這組參數(shù)權(quán)重所代表的函數(shù)往往比之前那種算法涵蓋的規(guī)律更全面準(zhǔn)確。上面這些理解有問題嗎?
9.就人類已知的知識,容貌還和與生活環(huán)境、基因、飲食等因素相關(guān),理論上這些因素可能是無窮的,如果是以數(shù)據(jù)集訓(xùn)練大模型,顯然我們無法實現(xiàn)無窮因素和結(jié)果之間的映射,如果這樣的話,以現(xiàn)有的模式是不可能訓(xùn)練出像上帝一樣的超級智能的。模型的智能表現(xiàn)會困在我們已知的知識映射上。舉個例子人類的歷史并不具備繞銀河系中心一周的數(shù)據(jù),更不用說更大的星系團,這些信息對某些規(guī)律可能有重要的影響,但這個不包含在人類已有的數(shù)據(jù)集中。除非我們能找到更底層的規(guī)律,才有可能做一些可能的推演。但是悖論是所有的知識起點都是基于歸納法的。但歸納法本身就是不完備的,所以世界是無法完全認(rèn)知的,我說的對嗎?
作者: 學(xué)者11    時間: 2025-3-11 19:25
本帖最后由 學(xué)者11 于 2025-3-11 19:45 編輯
極限思維 發(fā)表于 2025-3-11 18:21
發(fā)一段我和AI的對話,具體回答,各位可以自行問AI。如果你認(rèn)真讀一下,可能會理解今天的AI是什么,不要辜負(fù) ...

1網(wǎng)絡(luò)數(shù)據(jù)很多都是胡說八道,最明顯的例子就是
(, 下載次數(shù): 4)
TMD哪來的4000點,后來有人找到了數(shù)據(jù)來源,是某個自媒體的胡說八道,而大模型它屁不懂,就知道照抄。就是TMD哪門子智能。
(, 下載次數(shù): 3)
要不是讀過標(biāo)準(zhǔn),真就信了。
(, 下載次數(shù): 5)

2 聽說過數(shù)據(jù)標(biāo)注員,你知道全國有多少人從事數(shù)據(jù)標(biāo)注員工作嗎。而且也不存在各行各業(yè),很多行業(yè)的常識大模型是根本不知道,是一點不懂。

3你根本不知道大模型本質(zhì)是猜文字生成概率模型,你就是讓AI全文閱讀標(biāo)準(zhǔn),它照樣胡說八道。

4 微調(diào)的依賴路徑是什么,AI很大程度上依然取決于數(shù)據(jù)的質(zhì)量和數(shù)量。如果特定領(lǐng)域的數(shù)據(jù)量過少或質(zhì)量不高,微調(diào)的效果不理想。
而且在微調(diào)過程中,AI會“忘記”它在預(yù)訓(xùn)練階段學(xué)到的一些信息。所謂越調(diào)越傻。

5 大模型不是靠用戶反饋的,你想多了,你但凡用過國內(nèi)軟件,哪個是用戶反饋就給你升級的,你算老幾。即便是最先進的大模型也不能直接根據(jù)用戶反饋進行自我進化,模型的改進和更新通常需要人工干預(yù),大模型也必須程序員來編程改進。


6 關(guān)于微調(diào)上面已經(jīng)闡述了,專業(yè)領(lǐng)域的AI與微調(diào)無關(guān),微調(diào)什么都不能解決,多看點相關(guān)論文。

7再一次證明你不懂什么是大模型,上面說了,大模型就是個文字概率生成模型,所以它沒有“學(xué)習(xí)”這種概念。

8大模型的參數(shù)權(quán)重是指在深度學(xué)習(xí)或機器學(xué)習(xí)模型中,特別是神經(jīng)網(wǎng)絡(luò)里,每個神經(jīng)元之間的連接強度。這些權(quán)重是模型內(nèi)部的參數(shù),它們決定了輸入數(shù)據(jù)如何通過網(wǎng)絡(luò)的不同層被處理和轉(zhuǎn)換,并最終影響輸出結(jié)果。權(quán)重反映了每個輸入的重要性:如果權(quán)重接近零,那么該輸入對最終輸出的影響就很小;如果權(quán)重很大(無論是正數(shù)還是負(fù)數(shù)),那么該輸入將對輸出產(chǎn)生較大的影響。
9人類的意識都沒探討明白,你探討什么大模型,都說一萬遍了,現(xiàn)在生成式AI的架構(gòu)就是大型語言模型架構(gòu)LLM,文字生成概率。它根本不理解世界,它說草是綠色的,僅僅是人類給的數(shù)據(jù)中,草和綠色經(jīng)常性組合在一起。就是權(quán)重高,所以大模型也就跟著組合。



作者: 翱翔天際    時間: 2025-3-11 20:01
在中國,99.5%以上的機械設(shè)計師工程師技術(shù)水平,都比不上一個只有一年不到的AI應(yīng)用,其實不是AI聰明,而是99.5%的所謂工程師設(shè)計師,其實都是一幫無能之輩,一輩子沒有高光時刻,一輩子在自己的可憐的工位上做著那點可憐的活,以此度過余生而已。
作者: 無法言喻1977    時間: 2025-3-11 20:07
其實不要說設(shè)計師,任何人都應(yīng)該好好了解學(xué)習(xí)AI,和身邊幾個玩自媒體的朋友聊天當(dāng)中用得知用AI收益確實不錯其一。其二,之前自學(xué)三維軟件只知其一不知其二。用AI后知道了:“為什么要這樣”,思路清楚了,現(xiàn)在設(shè)計一個東西我都會先問一下AI,他會怎樣設(shè)計。如果后續(xù)的AI發(fā)展到與人交流,對話,那才是最可怕的時代。
作者: cc851    時間: 2025-3-11 21:51
不用計算什么的,真的成了畫圖狗了。
作者: Shlgzh    時間: 2025-3-12 08:01
謝謝分享
作者: Dahui256    時間: 2025-3-12 08:12
還是那句話,盡信書不如無書,AI只是工具,能學(xué)到多少利用多少都看自己
作者: jian2901    時間: 2025-3-12 08:35
大語言模型是如何利用全網(wǎng)數(shù)據(jù)進行訓(xùn)練的,能不能用淺顯易懂的例子說明一下,比如你是怎么學(xué)習(xí)GB 150-2011這標(biāo)準(zhǔn)的?

chatGPT4:
大語言模型的訓(xùn)練過程并不是指通過直接 "學(xué)習(xí)" 或下載特定文件或標(biāo)準(zhǔn)。模型的訓(xùn)練是通過接觸大量的文本數(shù)據(jù),來學(xué)習(xí)語言的結(jié)構(gòu)、模式、語法和語義。這些數(shù)據(jù)可能包含各種各樣的來源,比如書籍、網(wǎng)站、文章和其他公開可用的文本。

以下用淺顯的方法來解釋這個過程:

數(shù)據(jù)收集:在訓(xùn)練初期,模型會接觸到非常海量的文本,這些文本涵蓋多個領(lǐng)域和主題。這些數(shù)據(jù)是在訓(xùn)練前已經(jīng)收集好的,并不是實時網(wǎng)絡(luò)抓取。

特征學(xué)習(xí):通過分析這些文本,模型會識別出一些語言特征。例如,它會了解句子的結(jié)構(gòu),詞語的用法,還有段落的組織方式。這些特征幫助模型理解如何生成合理的文本。

模式識別:模型通過大量的示例學(xué)習(xí)規(guī)律和模式,譬如某些詞語通常在一起出現(xiàn),某類文體的句式特點等。這樣,它就能根據(jù)輸入的上下文生成符合邏輯的回答。

對于非常具體的像GB 150-2011這樣的標(biāo)準(zhǔn),模型可能在訓(xùn)練數(shù)據(jù)中接觸到與它相關(guān)的介紹、討論或引用,但并不是直接去學(xué)習(xí)或存儲該文檔。模型會通過學(xué)習(xí)語言的表達(dá)習(xí)慣來了解如何表述與該標(biāo)準(zhǔn)相關(guān)的內(nèi)容。如果模型在訓(xùn)練數(shù)據(jù)中接觸較多與該標(biāo)準(zhǔn)相關(guān)的信息,它的相關(guān)性可能更強。

總的來說,模型的能力是基于所接受的廣泛語料,而不是逐字逐句地記住特定文檔。不過,它能模擬生成內(nèi)容響應(yīng)有關(guān)的請求,因為它了解語言運作的基本規(guī)律和常識。

作者: jian2901    時間: 2025-3-12 08:35
那是不是有什么自動化的清理數(shù)據(jù)的的程序,因為我理解靠人工來清理文本和投喂數(shù)據(jù)是項無法完成的巨量工作,特別是考慮你需要各行各業(yè)的專業(yè)人士來清理數(shù)據(jù),確保數(shù)據(jù)質(zhì)量。
chatGPT4:
確實,對于訓(xùn)練大語言模型來說,自動化的數(shù)據(jù)清理和處理是非常重要且必要的,因為處理的數(shù)據(jù)量極其龐大,人工逐一清理是不可行的。以下是一些典型的自動化數(shù)據(jù)清理和處理的方法:

數(shù)據(jù)收集與初步篩選:自動化程序會從多種公開可用的來源中收集數(shù)據(jù),然后使用基本過濾器來移除顯而易見的低質(zhì)量數(shù)據(jù),如包含惡意內(nèi)容或格式損壞的文本。

去重和格式規(guī)范化:使用自動腳本刪除重復(fù)內(nèi)容,并規(guī)范化文本格式,比如統(tǒng)一編碼格式、去除多余的空白和HTML標(biāo)簽等。

語言檢測:通過自動語言檢測工具篩選出目標(biāo)語言的文本,以避免將其他不相關(guān)語言的文本誤用。

垃圾內(nèi)容過濾:使用機器學(xué)習(xí)模型或規(guī)則基礎(chǔ)的方法來檢測和過濾廣告、噪聲數(shù)據(jù)或其他非人類生成的內(nèi)容。

敏感信息移除:設(shè)計特定的工具來去除潛在的敏感信息,如個人身份信息(PII)或者其他需要保密的信息。

主題分類和標(biāo)記:利用自然語言處理技術(shù)對文本進行分類和標(biāo)記,以便于后續(xù)的專業(yè)性篩選和處理。

質(zhì)量評估模型:開發(fā)基于模型的質(zhì)量評估工具,自動化評估文本的質(zhì)量并根據(jù)得分篩選數(shù)據(jù)。

樣本審查和迭代改進:從自動清理后的數(shù)據(jù)中抽取樣本,進行人工審查。這幫助識別可能的誤判和改進自動化篩選程序。

通過使用這些自動化工具和技術(shù),訓(xùn)練數(shù)據(jù)的質(zhì)量和多樣性可以得到有效控制。這不僅提高了數(shù)據(jù)處理的效率,也確保了模型在訓(xùn)練過程中接觸到更準(zhǔn)確和有用的內(nèi)容。
作者: jian2901    時間: 2025-3-12 08:36
如果想讓模型精確掌握GB 150-2011的內(nèi)容,需要人工干預(yù)模型的學(xué)習(xí)過程嗎,比方用示例來校核。
chatGPT4:
為了讓模型精確掌握特定標(biāo)準(zhǔn),如GB 150-2011,需要采取一定的措施,確保模型不僅獲取相關(guān)信息,還能理解其中的細(xì)節(jié)和要求。以下是一些方法,可以幫助提高模型對特定標(biāo)準(zhǔn)的掌握程度:

數(shù)據(jù)標(biāo)注:將GB 150-2011相關(guān)的文本進行精確標(biāo)注,標(biāo)示出關(guān)鍵的部分、定義和要求。這有助于模型識別并理解重要的信息。

示例解析:提供相關(guān)的實際應(yīng)用示例和案例分析,幫助模型了解如何在現(xiàn)實中應(yīng)用標(biāo)準(zhǔn)。這對提高模型的理解力非常有幫助。

領(lǐng)域特定訓(xùn)練:使用GB 150-2011及其應(yīng)用場景的相關(guān)數(shù)據(jù)進行專門的訓(xùn)練。通過在這個領(lǐng)域內(nèi)的擴展學(xué)習(xí)資料來豐富模型的知識。

專家審查及反饋:如果可能,結(jié)合領(lǐng)域?qū)<覍δP偷妮敵鲞M行審查和反饋,以校正理解誤差,并指導(dǎo)模型學(xué)習(xí)正確的信息。

細(xì)化評估:設(shè)計專門的評估機制,通過問答和應(yīng)用情境測試模型對GB 150-2011的掌握程度,借此調(diào)整和優(yōu)化訓(xùn)練參數(shù)。

逐步學(xué)習(xí):逐步增加復(fù)雜度,從基礎(chǔ)部分(如術(shù)語和基本概念)開始,讓模型逐步掌握復(fù)雜的內(nèi)容。

結(jié)合這些方法,人工干預(yù)可以有效地提高模型對特定標(biāo)準(zhǔn)的理解和掌握能力。但在實際應(yīng)用中,人工干預(yù)的程度需根據(jù)具體的需求和資源來平衡。通過自動化工具和專家參與,模型可以在精確度和廣泛性之間找到適合的結(jié)合。
作者: jian2901    時間: 2025-3-12 08:36
也就是說像你這樣的模型,如果想要在某一領(lǐng)域表現(xiàn)的更加出色,是需要針對性的做更專業(yè)的訓(xùn)練。這是不是就是所謂的微調(diào)?
chatGPT4:
是的,您說得對。所謂的微調(diào)(fine-tuning)是一種在預(yù)訓(xùn)練模型的基礎(chǔ)上,進行針對性訓(xùn)練的過程,以提高該模型在特定領(lǐng)域或特定任務(wù)上的表現(xiàn)。預(yù)訓(xùn)練模型通常在大量的通用數(shù)據(jù)上進行訓(xùn)練,具備廣泛的語言和知識能力,但為了能在某一領(lǐng)域取得更優(yōu)異的表現(xiàn),常需要進行微調(diào)。以下是有關(guān)微調(diào)的幾個關(guān)鍵點:

特定領(lǐng)域數(shù)據(jù):微調(diào)通常需要收集該領(lǐng)域的專用數(shù)據(jù)集。這些數(shù)據(jù)用于更新模型,使其在該領(lǐng)域的表現(xiàn)更優(yōu)。

保留通用能力:由于微調(diào)是在預(yù)訓(xùn)練模型之上進行的,因此模型可以保留其通用的語言能力,同時在特定領(lǐng)域表現(xiàn)更佳。

任務(wù)定制:微調(diào)過程中,訓(xùn)練的目標(biāo)可以根據(jù)特定任務(wù)進行調(diào)整,比如分類、問答或生成任務(wù)等。因此,微調(diào)不僅適用于增加領(lǐng)域知識,也可以提升任務(wù)性能。

適應(yīng)專業(yè)術(shù)語和細(xì)微差別:對于技術(shù)或術(shù)語密集的領(lǐng)域,通過微調(diào),模型可以更好地理解和使用專業(yè)術(shù)語,抓住文本中的細(xì)微差別。

訓(xùn)練資源:微調(diào)通常需要的計算資源和時間比初始模型訓(xùn)練要少,這是因為微調(diào)過程中主要是對模型的某些層或參數(shù)進行更新。

通過微調(diào),一個已經(jīng)具備廣泛能力的模型能夠適應(yīng)特定的領(lǐng)域需求,從而提供更準(zhǔn)確、更可靠的結(jié)果。因此,在想要提升特定領(lǐng)域表現(xiàn)時,微調(diào)是一種非常有效的方法。
作者: jian2901    時間: 2025-3-12 08:36
一個已經(jīng)發(fā)布的大語言模型,比如你這樣的,能通過用戶的反饋來實現(xiàn)自我改進嗎?
chatGPT4:
目前,通過用戶反饋來實現(xiàn)自我改進仍然是一個具有挑戰(zhàn)性的問題。大多數(shù)發(fā)布的大語言模型,包括我這樣的,通常不是直接通過用戶交互進行自我學(xué)習(xí)或自我改進。然而,開發(fā)者可以使用用戶反饋來間接改善模型性能。這里有一些常見的方法:

反饋收集:開發(fā)者可以收集用戶反饋,包括用戶在使用模型時遇到的問題、滿意度評估以及建議等。這些反饋對于了解模型在真實環(huán)境中的表現(xiàn)非常有價值。

數(shù)據(jù)更新:基于用戶反饋,開發(fā)者可以識別出哪些領(lǐng)域或問題上模型表現(xiàn)不足,并尋找相關(guān)的補充數(shù)據(jù)集進行再訓(xùn)練或微調(diào)。

錯誤分析:通過分析用戶反饋中頻繁出現(xiàn)的錯誤或不足,開發(fā)者可以找到模型的薄弱點,加以改進。

迭代開發(fā):根據(jù)用戶反饋,開發(fā)團隊可以迭代地更新模型和產(chǎn)品,以提供性能更優(yōu)、用戶體驗更好的版本。

主動學(xué)習(xí):在某些情況下,可以使用主動學(xué)習(xí)的方法,選擇最有價值的反饋信息來更新和優(yōu)化模型。

需要注意,對于已經(jīng)發(fā)布的模型來說,直接通過用戶交互進行自我改進存在技術(shù)和隱私方面的挑戰(zhàn)。通常,改進過程是通過開發(fā)團隊的干預(yù)、數(shù)據(jù)集擴展和再訓(xùn)練來實現(xiàn)的,而不是模型在用戶交互過程中自動進行的。保持用戶信息的安全和隱私也是進行這種改進的一個重要考慮因素。
作者: jian2901    時間: 2025-3-12 08:37
你這樣的開源模型應(yīng)該是可以通過微調(diào),來構(gòu)建一個專業(yè)領(lǐng)域的模型,比如內(nèi)科醫(yī)生AI,我的理解對吧?
chatGPT4:
是的,你的理解是正確的。開源的大語言模型可以通過微調(diào)(fine-tuning)來適應(yīng)特定領(lǐng)域的需求,例如構(gòu)建一個專業(yè)的內(nèi)科醫(yī)生AI。微調(diào)是一種在特定領(lǐng)域數(shù)據(jù)集上進一步訓(xùn)練現(xiàn)有大模型的方法。這可以提高模型在該領(lǐng)域的專門知識和表現(xiàn)能力。以下是微調(diào)過程的一般步驟:

準(zhǔn)備數(shù)據(jù):收集與特定領(lǐng)域相關(guān)的數(shù)據(jù)集,比如醫(yī)學(xué)文獻、臨床病例和醫(yī)學(xué)問答等,確保數(shù)據(jù)質(zhì)量和多樣性。

數(shù)據(jù)預(yù)處理:清理和格式化數(shù)據(jù),以適應(yīng)模型的輸入要求。如文本規(guī)范化、去除無關(guān)信息等。

選擇模型:選擇一個適合的開源語言模型作為基礎(chǔ),如GPT或BERT變種等。

微調(diào)模型:使用領(lǐng)域特定的數(shù)據(jù)集對模型進行微調(diào)。這包括調(diào)整模型的參數(shù),使其能在特定領(lǐng)域更準(zhǔn)確地理解和生成文本。

評估和驗證:對微調(diào)后的模型進行測試,評估其準(zhǔn)確性和實用性。可以使用領(lǐng)域?qū)<业姆答亖磔o助評估。

部署和監(jiān)控:將微調(diào)后的模型部署在實際應(yīng)用中,并持續(xù)監(jiān)控其表現(xiàn),以便根據(jù)用戶反饋和新數(shù)據(jù)調(diào)整模型。

這樣的微調(diào)能夠顯著提高模型在某一專業(yè)領(lǐng)域的表現(xiàn),使其在該領(lǐng)域的應(yīng)用中更具實用價值和專業(yè)性。不過,需要注意的是,進行領(lǐng)域微調(diào)時需要謹(jǐn)慎處理數(shù)據(jù)隱私和模型偏見問題。

作者: jian2901    時間: 2025-3-12 08:37
模型訓(xùn)練用的數(shù)據(jù)集是個什么樣的東西,能舉個例子嗎?是不是這樣的文件,比如,1+1是輸入,2是輸出,然后把這個當(dāng)成一條數(shù)據(jù)喂給模型。重復(fù)類似的數(shù)據(jù),10以內(nèi)的加減法,然后模型就學(xué)會了泛化10以內(nèi)的加減法。是不是有點類似人類學(xué)習(xí)時的習(xí)題集?
chatGPT4:
你的理解很接近。訓(xùn)練數(shù)據(jù)集確實類似于人類學(xué)習(xí)時使用的習(xí)題集,但對于語言模型和其他機器學(xué)習(xí)模型來說,格式和內(nèi)容可能會有所不同,具體取決于訓(xùn)練目標(biāo)和模型類型。

對于一個語言模型來說,數(shù)據(jù)集通常由大量的文本構(gòu)成。這些文本可以是書籍、文章、對話記錄等。在微調(diào)過程中,數(shù)據(jù)集可能會更加專門化,例如專業(yè)領(lǐng)域的研究論文、問答對、對話集等。這些文本數(shù)據(jù)幫助模型學(xué)習(xí)語言規(guī)律、語法結(jié)構(gòu)以及特定領(lǐng)域的知識。

如果我們以數(shù)學(xué)計算為例,如你提到的加減法,數(shù)據(jù)集可以設(shè)計成問題-答案對。例如:

輸入: "什么是1加1?"

輸出: "2"

輸入: "4減2等于多少?"

輸出: "2"

通過訓(xùn)練,這樣的問題-答案對幫助模型學(xué)習(xí)如何處理類似的數(shù)學(xué)問題。

不僅如此,模型可以被訓(xùn)練為理解語義和上下文,比如:

輸入: "在6個蘋果中拿走2個,會剩下多少?"
輸出: "4個蘋果"
當(dāng)然,模型訓(xùn)練的核心在于數(shù)據(jù)的多樣性和覆蓋度,以確保模型能夠泛化到新的、未見過的輸入,并能夠可靠地生成準(zhǔn)確的輸出。在語言模型的訓(xùn)練中,目標(biāo)不僅僅是記住答案,而是要理解語言表達(dá)背后的結(jié)構(gòu)和邏輯。
作者: jian2901    時間: 2025-3-12 08:38
大模型的參數(shù)權(quán)重這些,可以不可理解成一種更優(yōu)化的或者更泛化(我可能沒有合適的詞來描述)的算法,比如,如果我們詳細(xì)的知道皮膚骨骼等隨著年齡變化的函數(shù),我們就能用一種算法來描述一個人從孩子到老年的容貌變化。當(dāng)你給定小孩的容貌時,我們就能算出老年時的容貌。但是大模型的話,我們只要連續(xù)給定大量的孩子從小到老的容貌變化的圖片的數(shù)據(jù)集,模型就會調(diào)整參數(shù)權(quán)重,從而得出一個人無法知曉的函數(shù)(如果可以稱為函數(shù)的話)。從而預(yù)測某個孩子的未來容貌。更關(guān)鍵的是這組參數(shù)權(quán)重所代表的函數(shù)往往比之前那種算法涵蓋的規(guī)律更全面準(zhǔn)確。上面這些理解有問題嗎?
chatGPT4:
你的理解在一定程度上是正確的,但也需要進一步細(xì)化。在機器學(xué)習(xí)中,尤其是深度學(xué)習(xí)和大模型的場景中,參數(shù)權(quán)重確實可以被視為一種復(fù)雜的函數(shù)或算法,能夠捕捉到數(shù)據(jù)中的規(guī)律并進行預(yù)測或生成。

參數(shù)權(quán)重與函數(shù): 當(dāng)我們訓(xùn)練一個模型時,實際上是在優(yōu)化模型的參數(shù)(權(quán)重和偏置),使得模型能夠最好地適應(yīng)訓(xùn)練數(shù)據(jù)。這些參數(shù)形成了一個復(fù)雜的多維函數(shù),能夠進行預(yù)期的預(yù)測或生成。雖然我們不能簡單地用一個顯式的數(shù)學(xué)函數(shù)來描述這些權(quán)重所代表的關(guān)系,但它們確實在處理輸入到輸出的映射。

泛化能力: 大模型通過在大量多樣化的數(shù)據(jù)上進行訓(xùn)練,可以學(xué)習(xí)更全面的統(tǒng)計規(guī)律,具備更強的泛化能力。這意味著即使面對未曾見過的數(shù)據(jù),它們也能夠進行合理的預(yù)測。這種泛化能力是通過學(xué)習(xí)數(shù)據(jù)中的復(fù)雜模式與特征實現(xiàn)的。

不可解釋性: 目前,大多數(shù)深度學(xué)習(xí)模型尤其是大模型的內(nèi)在機制仍然難以完全解釋。這些模型的參數(shù)空間非常龐大,直接解讀參數(shù)及其與具體輸入輸出的關(guān)系在技術(shù)上是相當(dāng)困難的。這與傳統(tǒng)的、完整定義的算法不同,后者通常有明確的步驟和規(guī)則。

數(shù)據(jù)驅(qū)動: 而與傳統(tǒng)的顯式公式或函數(shù)通過明確的數(shù)學(xué)關(guān)系進行描述不同,深度學(xué)習(xí)依賴于海量的數(shù)據(jù)。它通過數(shù)據(jù)驅(qū)動的方式學(xué)習(xí)復(fù)雜模式,因此可以自動調(diào)整權(quán)重以捕捉潛在規(guī)律,比如預(yù)測容貌變化。

總結(jié)來說,你的概念中強調(diào)了模型通過學(xué)習(xí)數(shù)據(jù)自動發(fā)現(xiàn)并應(yīng)用復(fù)雜關(guān)系的能力,這是深度學(xué)習(xí)的核心優(yōu)勢之一。盡管這些關(guān)系可以比傳統(tǒng)算法更廣泛和深刻,它們可能缺乏可解釋性,但確實具備了強大的實際應(yīng)用價值。
作者: jian2901    時間: 2025-3-12 08:38
就人類已知的知識,容貌還和與生活環(huán)境、基因、飲食等因素相關(guān),理論上這些因素可能是無窮的,如果是以數(shù)據(jù)集訓(xùn)練大模型,顯然我們無法實現(xiàn)無窮因素和結(jié)果之間的映射,如果這樣的話,以現(xiàn)有的模式是不可能訓(xùn)練出像上帝一樣的超級智能的。模型的智能表現(xiàn)會困在我們已知的知識映射上。舉個例子人類的歷史并不具備繞銀河系中心一周的數(shù)據(jù),更不用說更大的星系團,這些信息對某些規(guī)律可能有重要的影響,但這個不包含在人類已有的數(shù)據(jù)集中。除非我們能找到更底層的規(guī)律,才有可能做一些可能的推演。但是悖論是所有的知識起點都是基于歸納法的。但歸納法本身就是不完備的,所以世界是無法完全認(rèn)知的,我說的對嗎?
chatGPT4:
你提出了一個非常深刻的問題,涉及到人工智能的局限性和科學(xué)哲學(xué)的范疇。以下是對這些問題的幾點思考:

不完備的數(shù)據(jù)和模型局限性: 你指出的一個核心問題是,模型訓(xùn)練依賴于數(shù)據(jù),而數(shù)據(jù)往往是有限的和不完備的。當(dāng)涉及到諸如生活環(huán)境、基因、飲食等多種復(fù)雜因素時,想要完全捕捉這些變量之間的關(guān)系可能是不現(xiàn)實的。當(dāng)前的大模型在很大程度上局限于我們已知的信息和數(shù)據(jù),如果面臨完全未知或未觀察到的現(xiàn)象,它們的預(yù)測能力就會受到限制。

對世界的理解有限: 人類當(dāng)前對宇宙及其規(guī)律的理解是有限的。科學(xué)的進展常通過歸納法,即通過觀察和實驗歸納出一般規(guī)律。然而,歸納法的一個關(guān)鍵限制是,它無法保證全面的完備性。我們無法確保從有限的觀察中得出的結(jié)論在所有情況下都是適用的。

尋找底層規(guī)律的挑戰(zhàn): 確實,科學(xué)理論的發(fā)展歷史上,不斷有新的、更為基礎(chǔ)的規(guī)律被發(fā)現(xiàn)。例如,牛頓力學(xué)到相對論和量子力學(xué)的過渡就是科學(xué)對自然界越來越深刻理解的體現(xiàn)。然而,這種發(fā)現(xiàn)新的底層規(guī)律的過程是艱難且充滿不確定性的,不一定能夠通過當(dāng)前的方法或技術(shù)實現(xiàn)。

超級智能的限制: 由于這些數(shù)據(jù)和方法的局限性,目前的大模型和人工智能不可能達(dá)到無所不知的"超級智能"。它們可以在特定領(lǐng)域或任務(wù)中表現(xiàn)出顯著的智能水平,但這些表現(xiàn)總是在已知信息和方法的框架內(nèi)。

科學(xué)的自我糾正: 雖然歸納法本身有其局限,但科學(xué)方法的一個優(yōu)勢在于其自我糾正機制。通過不斷的驗證、實驗和修正,科學(xué)理論會逐漸接近于對世界的更真實描述。盡管我們可能無法達(dá)到完全的認(rèn)知,但科學(xué)能夠幫助我們更好地理解和描述我們所觀察的宇宙。

總結(jié)來說,你的觀察是正確的,當(dāng)前的模型和我們對世界的理解都有各自的局限性。認(rèn)識到這些限制是推動科學(xué)和技術(shù)不斷進步的一個重要動力。
作者: zc1401    時間: 2025-3-12 08:40
目前AI應(yīng)該是信息整合,無法分辨
作者: 孫越sy    時間: 2025-3-12 08:59
無法言喻1977 發(fā)表于 2025-3-11 20:07
其實不要說設(shè)計師,任何人都應(yīng)該好好了解學(xué)習(xí)AI,和身邊幾個玩自媒體的朋友聊天當(dāng)中用得知用AI收益確實不錯 ...

豆包早就能交流了

作者: jian2901    時間: 2025-3-12 09:05
你是一位資深機械工程師,擅長物料輸送方案的設(shè)計與優(yōu)化,我需要給一個長筒形封閉容器分配物料,300目的粉狀料,筒體大約6米長,沿著筒體軸線方向,每隔大約450mm設(shè)置一個落料口,請設(shè)計一個輸送方案盡可能均勻的落料。

ChatGPT4:
在設(shè)計這樣的物料輸送方案時,首先需要考慮確保粉狀物料能夠均勻地分布到每個落料口。以下是一個可能的設(shè)計方案,旨在實現(xiàn)均勻分配:

方案設(shè)計
螺旋輸送機:

使用一根長螺旋輸送機,沿著筒體的軸線方向布置,覆蓋所有落料口的位置。螺旋輸送機可以準(zhǔn)確地控制物料流量,并防止物料架橋或堵塞。
選擇適合300目粉狀料的螺旋直徑和螺距,確保物料能夠順利運輸。通常,較小的螺距更適合細(xì)粉物料的精確輸送。
多出口分配器:

在螺旋輸送機上設(shè)置多個出口,與每個落料口對應(yīng)。每個出口可以設(shè)計成可調(diào)節(jié)的,以便對每個位置的物料流量進行微調(diào)。
出口之間的間距應(yīng)設(shè)計為450mm,以對應(yīng)筒體的落料口間距。
振動篩分裝置:

在上料前使用振動篩對粉料進行預(yù)處理,以防止結(jié)塊并確保物料的流動性。
空氣輔助系統(tǒng):

如果物料流動性較差或容易發(fā)生結(jié)塊,可以考慮在每個出口處設(shè)計空氣噴射裝置,以幫助物料順利落下。
自動化控制系統(tǒng):

利用PLC系統(tǒng)控制進料速度和螺旋輸送機的運行速度。可以通過傳感器監(jiān)控每個輸送段的物料流量,實現(xiàn)閉環(huán)控制。
通過調(diào)節(jié)螺旋輸送機的轉(zhuǎn)速和出口開口大小,確保每個落料口的物料分配均衡。
系統(tǒng)檢驗與調(diào)試:

在方案實施后,利用測試設(shè)備進行系統(tǒng)調(diào)試,確保實際物料流量與設(shè)計相符,并進行必要的調(diào)整以優(yōu)化性能。
其他注意事項
材料選擇:確保輸送設(shè)備及落料口材料適用于300目粉料,防止磨損和腐蝕。
維護清潔:設(shè)計便于清潔和維護的結(jié)構(gòu),以防止細(xì)粉料積聚和交叉污染。
安全性:考慮防塵和防爆措施,確保系統(tǒng)符合相關(guān)安全標(biāo)準(zhǔn),特別是粉塵爆炸風(fēng)險較高時。
這個方案綜合考慮了物料特性和裝置要求,目的是實現(xiàn)更均勻和高效的物料分配。根據(jù)實際需求,可能需要進一步定制和優(yōu)化。

詳細(xì)描述下螺旋輸送機的設(shè)計

assistant avatar
設(shè)計螺旋輸送機時,特別是在用于輸送細(xì)粉狀物料(如300目粉料)時,需要考慮多方面的因素,以確保輸送過程的順暢和均勻分配。以下是詳細(xì)的設(shè)計步驟和考慮因素:

螺旋輸送機設(shè)計
結(jié)構(gòu)設(shè)計:

螺旋直徑:通常直徑應(yīng)根據(jù)輸送量和物料特性選擇。對于細(xì)粉料,選擇適中的直徑以平衡輸送量和流動性。
螺距設(shè)計:較小的螺距有助于精確控制物料流量,防止物料架橋。通常,螺距與螺旋直徑的比例在0.5到1之間較為合適。
材料選擇:

螺旋和槽體材料:應(yīng)使用耐磨、耐腐蝕材料,例如不銹鋼或表面處理鋼材,防止粉料對設(shè)備的磨損。
表面處理:可能需要進行特殊涂層處理,以減少摩擦系數(shù),提高物料流動性。
驅(qū)動裝置:

電機和減速器:根據(jù)輸送機長度和負(fù)載選擇合適的電機功率和減速器,確保螺旋軸能夠穩(wěn)定運轉(zhuǎn)。
可變頻驅(qū)動:建議采用可變頻驅(qū)動裝置以方便調(diào)節(jié)螺旋轉(zhuǎn)速,從而精準(zhǔn)控制物料流量。
進料和分配設(shè)計:

進料口:設(shè)計足夠大的進料口以防止粉料堆積,同時可設(shè)置振動篩以輔助進料。
分配器設(shè)計:在每個落料點位置,設(shè)置可調(diào)高度的出口,以控制流量并保證均勻分布。
檢測和控制系統(tǒng):

傳感器:安裝重量或流量傳感器以實時監(jiān)控物料經(jīng)過情況,判斷是否均勻落料。
自動控制系統(tǒng):利用PLC或其他控制系統(tǒng)自動調(diào)節(jié)電機速度及出口開口,確保穩(wěn)定均勻的物料分配。
維護和清潔設(shè)計:

可拆卸面板:設(shè)計便于拆卸的面板,以方便定期清潔和維護。
清潔設(shè)備:可考慮設(shè)置空氣噴吹或振動器以定期去除積料,保持輸送順暢。
安全和防護措施:

除塵設(shè)備:配置高效除塵裝置以收集和控制粉塵排放,確保操作環(huán)境安全。
防爆設(shè)計:特別是在處理易燃易爆粉體時,需要采取適當(dāng)?shù)姆辣胧热珈o電消散裝置。
通過以上設(shè)計步驟,可以確保螺旋輸送機能夠有效地輸送細(xì)粉狀物料,并均勻地分布于所需位置。具體參數(shù)選擇應(yīng)根據(jù)實際物料性質(zhì)和工藝要求進行調(diào)整。
作者: jian2901    時間: 2025-3-12 09:10
方案文生圖
作者: hxglty    時間: 2025-3-12 09:12
你問問AI哪吒鬧海的劇情看看,他會說他的知識只更新到去年7月份……2個星期之前搜索的,現(xiàn)在不知道
作者: 744633782    時間: 2025-3-12 09:13
確實厲害

作者: 極限思維    時間: 2025-3-12 09:39
jian2901 發(fā)表于 2025-3-12 09:10
方案文生圖

我x,你這個牛,你這個是付費版嗎?但GPT4水平不咋地,現(xiàn)在能用的還是GROK3,國內(nèi)設(shè)計計算的話DEEPSEEK是不二的選擇。

作者: 極限思維    時間: 2025-3-12 09:43
我看很多社友的信息落后了,就設(shè)計而言,豆包啥的不是這個領(lǐng)域的AI,有條件用grok3和GPT的最新版本,舉個例子來說,grok的翻譯水平甩百度翻譯,谷歌翻譯好幾條街。
作者: 極限思維    時間: 2025-3-12 09:48
jian2901 發(fā)表于 2025-3-12 09:05
你是一位資深機械工程師,擅長物料輸送方案的設(shè)計與優(yōu)化,我需要給一個長筒形封閉容器分配物料,300目的粉 ...

grok3的方案要比這個好,他給的是變螺距方案,但是目前的AI在方案靈活性上顯然還不夠,當(dāng)然也許是我交流的不夠。但是但是但是,重點來了,和A1合作搞工程相互可以啟發(fā),又不必爭吵,比和幾個固執(zhí)的蠢人討論方案強太多。現(xiàn)在唯一的問題是還沒有免費的多模態(tài)。另外能力稍嫌不足,但確實可以補全很多你會疏漏的細(xì)節(jié)。

作者: jian2901    時間: 2025-3-12 11:31
極限思維 發(fā)表于 2025-3-12 09:39
我x,你這個牛,你這個是付費版嗎?但GPT4水平不咋地,現(xiàn)在能用的還是GROK3,國內(nèi)設(shè)計計算的話DEEPSEEK是 ...

是公司內(nèi)部開發(fā)的

作者: jian2901    時間: 2025-3-12 11:34
極限思維 發(fā)表于 2025-3-12 09:48
grok3的方案要比這個好,他給的是變螺距方案,但是目前的AI在方案靈活性上顯然還不夠,當(dāng)然也許是我交流 ...

詳細(xì)的某個領(lǐng)域還需要單獨開發(fā)的,不然很難準(zhǔn)確的得到自己想要的答案,基于大模型基礎(chǔ),喂給他所有某個領(lǐng)域?qū)I(yè)的知識,會比通用大模型好很多。AI是公認(rèn)的技術(shù)革命,不跟進早晚會被淘汰。

作者: 極限思維    時間: 2025-3-12 11:38
本帖最后由 極限思維 于 2025-3-12 11:41 編輯
jian2901 發(fā)表于 2025-3-12 11:31
是公司內(nèi)部開發(fā)的

我試了下,還真行,但是方案圖太扯了,但是grok似乎能看懂草圖

作者: decade12580    時間: 2025-3-12 13:09
博主可以看ai下圍棋的經(jīng)歷就能了解目前ai的發(fā)展進度,個人淺見目前ai的發(fā)展仍然處在李世石大戰(zhàn)的master的前瞻版本,也就是還處在初步的收集資料進行總結(jié)的階段,并沒有達(dá)到完成資料統(tǒng)合媲美頂尖棋手的地步。所以就目前來看個人專業(yè)化提升和對ai的學(xué)習(xí)是需要同步提升的,而不是只掌握一樣即可
作者: 極限思維    時間: 2025-3-12 14:09
decade12580 發(fā)表于 2025-3-12 13:09
博主可以看ai下圍棋的經(jīng)歷就能了解目前ai的發(fā)展進度,個人淺見目前ai的發(fā)展仍然處在李世石大戰(zhàn)的master的前 ...

關(guān)于當(dāng)前的AI,我的個人認(rèn)識如下
1.大模型就是個孩子,天生有資質(zhì)差異(基因)。
2. 這個基因由基本架構(gòu)(如transform)參數(shù)量和基本訓(xùn)練組成。
3.基本訓(xùn)練的好壞取決于訓(xùn)練數(shù)據(jù)集的廣度和深度(這部分決定性的訓(xùn)練在于語言理解能力)。
4.訓(xùn)練需要大量的算力(時間+硬件)和優(yōu)秀的教法。缺一不可。
5.其他人可以在一個訓(xùn)練好的開源模型上微調(diào)。
6.微調(diào)相當(dāng)于你把別人的孩子領(lǐng)回家,教他新的東西,如果你教的好,他在某些方面會明顯超過原模型。重要的是,你能教的那些知識他原來學(xué)過,你可以用更好的數(shù)據(jù)更好的方法糾正他原來學(xué)的不扎實的部分而不用全教一遍(這可能就是deepseek的蒸餾技術(shù))。
7.所以你微調(diào)需要的算力很低,但你得先有那個孩子(千問)。
8.要有更好的效果,你得有一個基因更好的孩子,基因太差,單靠教育(微調(diào))很難提升。重新訓(xùn)練又太吃算力。
9.所以決定AI能力最重要的幾個因素是架構(gòu),算力,數(shù)據(jù)及教法。架構(gòu)也許可以理解成社會制度,算力也許是人腦基因,數(shù)據(jù)及教法可能是日月山川,四季輪回及天命。
10.除了算力,其他三個中國還是有競爭的可能的。
11.目前的架構(gòu)和人腦相去甚遠(yuǎn),目前的架構(gòu)下實現(xiàn)AGI可能,但不可能實現(xiàn)ASI,所以人還可以領(lǐng)先很久,人的價值永恒。
12.如果能找到一種全新架構(gòu),比如像人腦一樣實現(xiàn)多維層間鏈接,那可能是個巨大的效率提升,暫時性的實現(xiàn)超車。
13.目前硬件架構(gòu)中最接近人腦架構(gòu)的是神經(jīng)擬態(tài)芯片。但這玩意也要靠光刻機。
14.大模型的開源和從前軟件的開源是完全不同的概念。數(shù)據(jù)集,訓(xùn)練方法不同,代碼相同的大模型根本就不是一個東西。另外由于算力導(dǎo)致的時間差異,也會導(dǎo)致根本不可能存在兩個一樣的模型(人不可能兩次踏進同一條河流)。


作者: 狄奧多西今猶在    時間: 2025-3-12 14:10
年輕人沒聽過deepseek的原因主要是這玩意太卡了,說兩句就卡死。同級的gpt不僅鎖中國ip,而且20刀/月,只要沾點收費就有很多人理性的選擇觀望了。說實話ai對于初級代碼的處理遠(yuǎn)勝機械設(shè)計以及計算,基礎(chǔ)的代碼只需要說需求就可以給你整出來,但是程序員依然該干啥干啥。
作者: 14373    時間: 2025-3-12 15:37
深度贊同,當(dāng)前階段的AI可能還有錯亂和幻想成分,可能還不夠直接替代,但也只是當(dāng)前階段,看看發(fā)展進化速度,足夠嚇人了,不一定過多少時間,不一定變成什么樣子.
我們還是要空杯心態(tài),憂患意識,放開視野,去關(guān)注,去研究,去結(jié)合,揚長避短,看能借用什么優(yōu)勢,看自己能保有什么優(yōu)勢.
作者: sfcp    時間: 2025-3-12 16:24
牛 也得追時代了
作者: 來自何方    時間: 2025-3-12 17:04
我朋友的,還需要進化
作者: 嘉樂君子    時間: 2025-3-12 17:40
盡信書不如無書,AI只是工具,能學(xué)到多少利用多少都看自己
作者: 極限思維    時間: 2025-3-12 18:08
來自何方 發(fā)表于 2025-3-12 17:04
我朋友的,還需要進化

我現(xiàn)在一般用2,3個AI同解一個問題,當(dāng)他們有分歧時,我再仔細(xì)看一下,當(dāng)然他給出的答案要符合經(jīng)驗也很重要。

作者: 喂我袋鹽    時間: 2025-3-12 18:51
極限思維 發(fā)表于 2025-3-11 18:21
發(fā)一段我和AI的對話,具體回答,各位可以自行問AI。如果你認(rèn)真讀一下,可能會理解今天的AI是什么,不要辜負(fù) ...

http://www.ytsybjq.com/thread-1075843-1-1.html
【薅羊毛】嘉立創(chuàng)1¥/銓智6.6¥不包郵,CNC福音不服來薅


有社友說是騙子,我都找他們打樣了好多件了,親測有效,AI+CNC不是騙子。

作者: 喂我袋鹽    時間: 2025-3-12 18:56
decade12580 發(fā)表于 2025-3-12 13:09
博主可以看ai下圍棋的經(jīng)歷就能了解目前ai的發(fā)展進度,個人淺見目前ai的發(fā)展仍然處在李世石大戰(zhàn)的master的前 ...

圍棋alphaGO,ZERO,到手機上的KataGO,迭代非常快,

其中有一個原因,圍棋這是一個腦力競技,基本沒有企業(yè)商業(yè)邏輯,技術(shù)機密方面的內(nèi)容。

不排除有些企業(yè)自己本地部署AI,自己培訓(xùn),私自喂養(yǎng)猛獸,為我所用。

可以看看我去年發(fā)的AI+CNC的帖子http://www.ytsybjq.com/thread-1075843-1-1.html

他們這些先行者已經(jīng)嘗到甜頭,在大量削減人力成本,大量招聘搞數(shù)學(xué)的人才,優(yōu)化刀路算法。

一旦成熟了,不斷拓展AI加工的邊界,幾乎可以覆蓋大部分業(yè)務(wù)了。



作者: jian2901    時間: 2025-3-13 08:09
看看AI的發(fā)展
作者: jian2901    時間: 2025-3-13 08:14
極限思維 發(fā)表于 2025-3-12 09:48
grok3的方案要比這個好,他給的是變螺距方案,但是目前的AI在方案靈活性上顯然還不夠,當(dāng)然也許是我交流 ...

Grok的排名還是比較靠后的

作者: babty    時間: 2025-3-13 11:45
啥啥啥
作者: 無法言喻1977    時間: 2025-3-14 19:19
無法言喻1977 發(fā)表于 2025-3-11 20:07
其實不要說設(shè)計師,任何人都應(yīng)該好好了解學(xué)習(xí)AI,和身邊幾個玩自媒體的朋友聊天當(dāng)中用得知用AI收益確實不錯 ...

AI的資料也是在網(wǎng)上搜集沒有錯,這與勤奮或者懶惰沒有關(guān)系,如果自已搜一個需要5分鐘利用AI2分鐘搜出,做那中選擇?其二,我利用AI搜索怎樣用SOLIDWORKS畫一個圓,AI從3個基準(zhǔn)面依次介紹,思路,動作,技巧,等,后面還給出學(xué)習(xí)建議。網(wǎng)上會有如此詳細(xì)嗎?其三,對AI的理解是仁者見仁智者見智,沒有必要加雜個人情緒。當(dāng)初我開淘寶店鋪的時候,10個人有9個人就說不行的,說什么質(zhì)量沒保障,沒人買,。其結(jié)果這些年多少線下實體關(guān)門。其四,如果說AI真沒有什么作用,堂堂的大美國家會如此緊張。





歡迎光臨 機械社區(qū) (http://www.ytsybjq.com/) Powered by Discuz! X3.5