![]() |
發布時間: 2023-3-6 16:24
正文摘要:我做過機械設計做過程序控制,以前的程控可以說都算是應激反應:每一個輸入都有反饋或者回應,沒有輸入程序控制就會停止。而chatgpt可以說不是程序的應激反應。而是在發展籌措能力。換句畫說以前的人工智能沒有中樞神 ... |
曉曉曉27 發表于 2023-3-7 10:08 疑犯追蹤好幾季了,2025續訂了嗎? |
我還是喜歡《疑犯追蹤》里的人工智能TM |
目前看,更像一個搜集歸納信息的搜索引擎 |
我也注冊問了幾個問題,回答就像你說的沒有深刻理解語詞含義 把它當個智能交互的搜索引擎比較好,有標準答案的很賽 |
確切的說,人工智能不用發展高度的“智能”就能毀滅人類。因為人類在他的行動目標之內。就想我們走路從來不考慮螞蟻一樣,因為你的目的是走而不是毀滅。人工智能也是一樣,只要它的邏輯點在這,而他又有行動能力,有工業支撐,人類幾乎就完蛋。 |
如果AI能達到人的智能程度,那不就創造了另外一種外形不同的人,人是由女媧造的(這不是明明白白),不是由人造的。所以人不可能成為神一樣的存在,所以人不可能使AI達到人的智能程度。 |
直至目前公開的對話AI仍存在嚴重缺陷。雖然是由AI讀取大量數據,可以給出像模像樣的答案,但也存在很多致命性錯誤。很難說AI真正理解了問題和自己用于作答的詞匯的“含義”。 通過梳理“ChatGPT”等對話AI出現的諸多錯誤,就可以發現機器要達到真正的智能所面臨的核心技術課題。 事實上,領先一步的ChatGPT的基礎是基于AI的大型語言模型,該模型建立在谷歌開發的被稱為“Transformer”的技術之上。 谷歌和微軟都強調,通過同時使用搜索和生成自然語言的功能,可以根據網上的最新信息生成語句。反過來說,對話AI此前一直不擅長追逐最新信息。 ChatGPT等的大型語言模型,每次更新信息內容時,都需要重新讀取數量龐大的文獻數據。因為很難頻繁更新,所以模型內保存的信息大多比較舊。 除了上述的問題外,對話AI還存在根本性的課題。目前推出的對話AI基本上都很難說已經可以理解自己所使用的詞匯的概念、含義、事物或現象的因果關系等“邏輯”。正因為如此,才會反復出現簡單的事實誤認。 例如,向ChatGPT詢問“哥哥和姐姐有什么不同”時,得到的回答是“雖然兄弟姐妹關系因家庭結構和出生順序不同而存在差異,但哥哥通常比姐姐年齡大”。之所以給出這樣不知所以然的答案,是因為沒有“理解”哥哥、姐姐等詞語的概念、相互之間的關系、家庭構成等全局情況。 之所以會出現這樣的錯誤,是因為現在使用的絕大部分語言模型是機器學習型AI。因此,使用的語言基本上是單詞和短語的“排列”,機器通過讀入數量龐大的過去的文獻來識別排列類型。然后再計算出各類型出現的概率,尋找出接在問題之后的概率較高的字符串并加以顯示。 也就是說,聊天AI不過是根據讀取數據找出概率高的詞序,并不是理解單詞、語句的“含義”以及家庭成員之間的關系等“常識”。因此,它不擅長回答那些不理解意義和常識就難以回答的問題。 由于不擅長邏輯,因此Chat GPT也不擅長簡單的計算。讓它做任意4位數之間的乘法,大都會算錯,并且反復輸入相同算式時,總是給出錯誤的答案。 也就是說,現有的聊天AI不適合用于調查事實。而應該僅限于在不管內容的真實性和準確性,只需要自動生成自然語句和軟件程序等文字列的目的時使用。 對話型AI缺乏“常識”和“道理”也源于根據數據以歸納法方式探索相關類型的機器學習型AI的弱點。 兼具常識和邏輯思考的新一代AI如何才能實現?參考人類兒童自然掌握語言、空間認識及社會關系等的過程,讓計算機學習邏輯和常識的研究正以腦科學家和認知科學家也參與的跨學科途徑推進。另外,也有將在第2次AI浪潮下失敗的人類輸入邏輯和常識與尖端的深層學習相融合的嘗試。 關于通過機器實現與人類接近的智能這一長期目標與現有AI技術的差距,開拓深層學習基本技術的美國Meta首席AI科學家、紐約大學教授Yann Lucan形容道:“目前先別說人類,就連貓狗的智能都遠未達到”。 我們不能因為看到對話AI的流暢文章就誤以為AI智能已經接近超越人類的“特異功能”(Singularity)。人類的科學技術在達到這一水平之前還需要實現眾多突破。 |
Archiver|手機版|小黑屋|機械社區 ( 京ICP備10217105號-1,京ICP證050210號,浙公網安備33038202004372號 )
GMT+8, 2025-8-20 01:11 , Processed in 0.070825 second(s), 20 queries , Gzip On.
Powered by Discuz! X3.5 Licensed
© 2001-2025 Discuz! Team.