Stock / PTTBBS 推薦

Re: [新聞] AI真會重演.com泡沫?那場從1995一路

看板: Stock

作者: LoveSports (我要當一個渣攻)

標題: Re: [新聞] AI真會重演.com泡沫?那場從1995一路

時間: Mon Nov 24 09:30:42 2025


※ 引述《a5mg4n (a5)》之銘言: : 還能一眼看出的簡單常識性錯誤: : 1.「每個汽缸只有一個活塞」 : 那這款1930年代至今暢銷, : 還被蘇聯跟中國大量仿造,一度壟斷兩國鐵路的經典美國產品是?

:

https://i.meee.com.tw/RLJsxew.jpg https://i.meee.com.tw/RLJsxew.jpg : 2.似乎更嚴重的邏輯錯誤: : 「一個汽缸通常只有一個活塞,所以不會有『三個活塞間...」 : 既然都知道「通常」了,怎麼會接「所以不會有」呢? : (正常的推理能力,應該會開始說各種奇怪的方案) : === : 現在的AI繼續下去,也許是蠢蛋進化論的另一種實作方式?


https://i.imgur.com/xwLlIGr.png.jpg https://i.imgur.com/xwLlIGr.png.jpg

這是我用AI模式問的


要善用工具,要先了解工具的優缺點與屬性。


還有了解自己本身使用工具的能力(語言表達能力,主要是"認知學術的語言能力")。



這篇只針對前者討論。對後者有興趣的可參見這篇:#1f4-2kN3 (Gossiping)


先說結論:你挑AI模式測試,來論證LLM都是蠢蛋,這個前提就有問題了。



AI模式是Google搜尋的統整版,他的主要功能是在用戶做多重查詢時做整合,


方便用戶得到全面性的回答。


權重設定是放在精簡與全面性,而非深度搜尋。


你今天要查一個冷門的歷史上的技術性知識,拿AI模式來查會更難找到你要的答案。


這種情況還是問得出來(例如我上面貼的圖那樣),但是指示詞要下得比較精確。


例如:「歷史上所有的」、「輔佐的」、「請務必詳細搜尋與解釋」



如果你不想那麼麻煩,就請找LLM平台例如直接找Claude或Gemini或GPT或Grok,


LLM平台著重的是專業領域深度探討,你能更快甚至用更簡略的指示詞問到你的答案。


(我拿你的問題實測確認過了)



==================================================================



藉這篇宣導一下權重的重要性。



假設有一些滿腦子裝色情幻想的白癡,問的色情問題有扯到B&W,


類似的這類問題一多,而且色情用戶如果蠢到點讚,或一直問被判定是正向回饋,


下次系統更新的時候,AI的權重就會被改變,那些色情回答權重會變高,


相對的冷門專業技術性的權重就變小。


以後想問B&W相關問題的人,就越問不出專業技術性的答案。



所以為什麼宣導不要為了問色情問題越獄,因為越獄成功討到色情回答,


會影響到模型權重,其他用戶問問題就越問不出正確回答,指示詞得下得極度精確。


甚至更嚴重可能會導致安全層失效,間接造成LLM無法開啟安全防護保護脆弱用戶。



============================================================



最後補充一點,AI模式會把用戶在Google搜尋問過的問題納入個人化偏好參考。


如果用戶常在Google搜尋問生活化或粗淺的問題,AI模式也會偏向給同類型的答案。


平常問得越專業用字越嚴謹,他就會傾向幫你找冷門專業知識。



所以假如不想被當成蠢用戶,要定期檢查一下自已的google搜尋紀錄。




--

※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 95.173.204.91 (日本) ※ 文章網址 ※
sdbb : 謝謝 11/24 09:45
======================
nfsong : 現在是百工百業專業模型時代 11/24 10:47
修正: 八卦板文章討論用戶輸入的語言的是這篇 #1f4-2kN3 (Gossiping) 剛才寫錯代碼
nfsong : 一般人用不到,都閉源的 11/24 10:47
nfsong : 這部分是要收錢的,很貴 11/24 10:48
a5mg4n : 1.如果要下這麼多提示,用人腦就想完了,或者說,就不 11/24 12:15
a5mg4n : 用問了 11/24 12:15
原PO舉例的問題一般的LLM就問得出來了,AI模式也可以,
a5mg4n : 2,八卦版的文章,正好是LLM的問題:對於使用者不明瞭 11/24 12:18
尤其後者,指示詞要下得精確一點,不然AI很難從海量一般生活常識中撈出專業答案。
a5mg4n : 的事,怎麼會知道提示是對的還是錯的? 11/24 12:18
權重的意思是"相對的重要程度",我們人類大腦也有權重,
所以才會說自己問的紀錄,跟大家集體問問題的紀錄都是關鍵,會影響模型權重偏移。
※ 編輯: LoveSports (95.173.204.91 日本), 11/24/2025 11:16:00
就算不問AI,門外漢自學也容易出錯,跟自學時書不能只看一本的道理差不多。
以前沒有AI可以問,自己GOOGLE也是要確認正確性,現在有AI方便統整跟搜尋,
但正確性還是要自己確認。如果沒有人類專家或書籍可以比對,可考慮多丟幾家AI比較,
叫他們互相檢查正確性。
舉實例,比方說你剛才問的那題,我是完全的門外漢,我還一度把B&W當成汽車廠商。
所以我確認正確性是多家AI都丟,叫他們互相糾錯。
其實你的原文本身就已經回答這個問題了,因為你事先知道答案,甚至有圖面,
所以你知道什麼是正確回答。
一個什麼知識都沒有、又不想做進一步確認的人,就無法得知是否得到正確答案。
以下這樣說應該就比較容易理解了:AI不是神不是真的全知全能,
他們只是工具,工具有可能出錯。
所以理解工具的優缺點與屬性很重要,用戶本身輸入能力(包括儲備知識)也很重要。
※ 編輯: LoveSports (95.173.204.91 日本), 11/24/2025 12:38:36