※ 引述《Rimowa (德國品質)》之銘言:
: 我想現在AI遇到最大的問題有兩個
: 一個是很多人提的 AI講錯也不用扛責 所以講錯也不會怎樣
: 另一個是因為AI怎麼樣都會掰出一套說法給你
: 如果相信了就可能有這次的吃毒菇案件
: 但如果還是懷疑堅持不信要自己求證 那又何必問AI?
: 可是很多場景 是沒有專業人士的 或是說 若有專業人士 又何必問AI?
這中間有個盲點就是:人並不是只有 專業人士 或 超級外行
還有一種是 入門水平 或 中間偏低
比如我們來看一個 2024 指定科目考試數學甲的問題:
一遊戲廠商將舉辦抽獎活動,
廠商公告每次抽獎需使用掉一個代幣,
且每次抽獎的中獎機率皆為0.1。
某甲決定先存若干個代幣,
並在活動開始後進行抽獎,
直到用完所有代幣才停止。
下列五個選項:
(1) 某甲中獎一次所需要抽獎次數的期望值為10
(2) 某甲抽獎兩次就中獎一次以上的機率為0.2
(3) 某甲抽獎10次都沒中獎的機率小於抽獎1次就中獎的機率
(4) 某甲至少要存22個代幣,才能保證中獎的機率大於0.9
(5) 某甲只要存足夠多的代幣,就可以保證中獎的機率為1
請問哪幾個選項是正確的?
這問題稱不上很難,但是要具備一定程度訓練和熟練度的人,
才能解這問題。
但如果你用 Gemini 3 Pro去問這問題,
可以得到下面的結果:
============== Gemini 開始 ================
這是一個經典的機率與期望值問題。
我們逐一分析這五個選項,找出正確的答案。
基本設定
單次中獎機率:p = 0.1
單次沒中獎機率:1 - p = 0.9
抽獎次數(代幣數):n
選項分析
(1) 某甲中獎一次所需要抽獎次數的期望值為 10
判定:正確
分析:這是「幾何分佈」(Geometric Distribution)的概念,即計算直到第一次成功所需的試驗次數。
計算:期望值 E = 1/p
代入 p=0.1,則 E = 1/0.1 = 10
這意味著平均來說,確實需要抽 10 次才會中獎一次。
(2) 某甲抽獎兩次就中獎一次以上的機率為 0.2
判定:錯誤
分析:「中獎一次以上」的機率 = 1 - 「兩次都沒中」。
計算:
兩次都沒中的機率:0.9 * 0.9 = 0.81
至少中一次的機率:1 - 0.81 = 0.19
註:此選項的陷阱在於直接將兩次機率相加 ($0.1 + 0.1$),這是錯誤的算法。
(3) 某甲抽獎 10 次都沒中獎的機率小於抽獎 1 次就中獎的機率
判定:錯誤
分析:我們需要比較 10次全槓龜 與 1次就中 的機率
計算:
抽 10 次都沒中的機率:0.9^10 ~= 0.3487
抽 1 次就中獎的機率:0.1
顯然 0.3487 > 0.1
(4) 某甲至少要存 22 個代幣,才能保證中獎的機率大於 0.9
判定:正確
分析:我們要找出最小的整數 n,使得「至少中一次」的機率 > 0.9。
1 - (0.9)^n > 0.9
計算:
(0.9)^n < 0.1
兩邊取對數(log):
n > (-1)/(-0.04576) ~= 21.85
因為 n 必須是整數,故 n 至少要為 22。
(5) 某甲只要存足夠多的代幣,就可以保證中獎的機率為 1
判定:錯誤
分析:雖然隨著次數增加,中獎機率會無限趨近於 1,但在有限的次數內,它永遠不會「等於」1。
數學上,1 - (0.9)^n 永遠小於 1,只要 n 是有限數值,就存在「全部沒中」的微小可能性。
正確的選項是
(1) 某甲中獎一次所需要抽獎次數的期望值為10
(4) 某甲至少要存22個代幣,才能保證中獎的機率大於0.9
============== Gemini 結束 ================
我幫大家確認過了,這結果沒問題。
顯然,有了Gemini提供的過程後,即便是程度較差的人,
也可以解決這個問題。
因為現在只要能看得懂過程即可。
但這並不表示Gemini說正確的選項是(1),(4),使用者就直接買單,
因為Gemini也可能是錯的。
所以這結果,對數學麻瓜是沒用的。
我本人對於「有了Copilot後不用學程式」或
「AI解題力達到奧數金牌,以後不用學數學」
是相當不以為然的。
反而是有了這些工具之後,人類比起從前更應該學這些東西。
只要學一點點,就可以獲得巨大成果,何樂而不為呢 :D
@tree_isu
https://x.com/tree_isu/status/1990543628004176001/photo/1
https://pbs.twimg.com/media/G5_U4RNacAARxLG.jpg
--
「凡有正法之地,必有我在;
而我在之處,勝利必將隨之到來」
~ Krishna
https://i.imgur.com/DwaSdca.jpg.jpg
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 98.45.195.96 (美國)
※ 文章網址 ※
推
ssarc :
我都拿AI翻譯小說,至少他比機翻可靠,我也不擔心他出錯
11/23 10:28
→
gox1117 :
AI翻譯就不是機翻一樣==
11/23 10:33
→
Cishang :
問題不就是現在這種行為都是素人在用,甚至用AI去回答別人
11/23 10:34
→
Cishang :
自己根本就不知道然後說AI講的
11/23 10:34
所以這問題在我看起來比較像是
風氣問題。
→
spfy :
不要激動
現在討論的情況
軟體工程師都先幫大家走過一次了
11/23 10:35
如果LLM成為標準的工具,
→
spfy :
但軟體工程方便的是ai正不正確馬上能驗證...部分啦
11/23 10:36
那我認為教學機關必須要堅定表明「AI講的=我不知道」的概念
推
tony15899 :
整理給定有限範圍資料還可以
直接讓AI找...
11/23 10:43
→
tony15899 :
出來的結果直接用後果自負
11/23 10:43
推
judge54532 :
是的,這才是現在這版本AI的正確使用方式
11/23 10:46
我最近超熱中這方面應用
這次很認真地打算學習RAG/Agent之類的知識XD
推
shadowblade :
講到底還是"你必須要具備能判定AI資料正確性的知識"
11/23 11:06
現在程式輔助工具解決很多以往我感到非常困擾的問題
→
shadowblade :
AI只是幫你省中間的功而已
11/23 11:06
→
mouscat :
我覺得問題不是這個
我相信對AI有基本認知的都知道他的
11/23 11:25
→
mouscat :
限制跟正確使用方式
但目前潛在的社會現象是
人手都有智
11/23 11:25
→
mouscat :
慧型手機
就能用AI
普及的速度遠超過被正確認知的速度
11/23 11:25
→
mouscat :
變成一堆人拿著自己根本不懂的工具亂用
11/23 11:25
→
mouscat :
這種模式更想之前內容農場跟至今仍猖獗的詐騙訊息
11/23 11:26
→
tony15899 :
有"專業知識"的人亂用的案例都有了
11/23 11:26
→
tony15899 :
美國律師用AI寫法律文件被法官抓包好幾次
11/23 11:27
→
mouscat :
我覺得單純的無知跟盲信還是不太一樣
11/23 11:28
推
ssarc :
方便,方便治百病,你把AI換成專家和名嘴也是一樣
11/23 11:29
→
mouscat :
無知是睡著了
盲信是裝睡
11/23 11:29
所以問題是我上一篇講的啊,
推
shadowblade :
那個現象我覺得很貼切的形容是
讓猴子都有槍
11/23 11:30
問題在於「因為一些因素
人有意識地選擇盲信」
→
shadowblade :
現在惡意資訊跟垃圾資訊的散佈速度有了AI完全不是一
11/23 11:31
→
shadowblade :
個檔次
11/23 11:31
→
mouscat :
沒人會去看服務條款不是常識嗎XD
11/23 11:31
→
tony15899 :
麻煩的是沒人發現的話AI搞出的垃圾資訊就會被混進正常
11/23 11:32
這跟無知沒什麼關係啊,比如Gemini很大方地在服務下面寫著
→
tony15899 :
資料庫裡煉蠱
垃圾進垃圾出
11/23 11:33
"Gemini
can
make
mistakes,
so
double-check
it"
→
tony15899 :
雖然在那之前網路資訊就已經是垃圾場了
11/23 11:33
你沒有double-check直接使用結論,這就是盲信啊
推
shadowblade :
以前要搞出惡意資訊至少還要點門檻
11/23 11:34
這邊沒有任何未知的訊息
→
mouscat :
基本上只有對output內容下手才有用啦
警語什麼的
大多數
11/23 11:34
→
mouscat :
人都會輕易選擇性忽略
11/23 11:34
→
mouscat :
實際上就沒有那麼多
你把大眾想得太理性了
11/23 11:35
推
tsubasawolfy :
這代AI出來前大家都覺得可以幫助所有人進步。但事
11/23 12:08
→
tsubasawolfy :
實上用個一兩年後的觀察心得是強者更強弱者更弱,
11/23 12:08
→
tsubasawolfy :
因為工具成效還是取決使用者本身。
11/23 12:08
推
tsubasawolfy :
現在這種程度AI就有這樣分野了,更難想像真的AGI出
11/23 12:09
這個不是服務條款啊,就直接寫在prompt旁邊而已。
→
tsubasawolfy :
來會是怎樣。
11/23 12:09
而且LLM會出錯這知道的人老早很多了不是嗎?
→
b2202761 :
使用AI讓強者更強是因為,強者有打好基礎,AI只是輔助
11/23 12:41
→
b2202761 :
,AI用完自己本身會在檢查驗證修改,弱者更弱是因為本
11/23 12:41
→
b2202761 :
身沒本事只靠者AI。
11/23 12:41
這個就是
mouscat
提到的類似內容農場的問題。
其實學校機關在很早期的階段就給出解法。
問題出在實作學術標準的生活方式很多人不喜歡
「忽略警語」這個是另外一種性質的問題
這邊的問題,你可以嘗試去長輩群組裡面,
對著他們的農場文,提出「這個訊息沒有可靠的引源,不應該相信」的論點,
看看他們的反應長啥樣
我非常確信這是因為社會因素導致的盲信選擇
※ 編輯: arrenwu (98.45.195.96 美國), 11/23/2025 11:38:13