Re: [新聞] AI真會重演.com泡沫?那場從1995一路燒
看板: Stock
作者: ttyui (ttyui)
標題: Re: [新聞] AI真會重演.com泡沫?那場從1995一路燒
時間: Mon Nov 24 21:19:32 2025
我覺得等ai確實能應用的時候
人工只會更貴而已
花600塊可以跟ai聊天諮詢
但是請顧問要6萬
1000塊可以讓ai幫你看病
但是要看真的醫生要1萬
從現在就可以看出來
ai產生的文字 圖 簡報
根本就不會想去細看
但是真人做的會想看
所以人的價值只會越來越高
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.172.101.6 (臺灣) ※ 文章網址 ※
推
junior020486 :
AI有時候都亂講
11/24 21:20
→
WenliYang :
AI不可盡信的=
=
11/24 21:21
→
saisai34 :
現在的AI會亂掰答案
如果專業的問題
還是得問人
11/24 21:24
→
saisai34 :
不然被坑死
推
permanent27 :
怎麼確定真人說的就不是在騙人?很多國家元首都在畫
11/24 21:26
→
permanent27 :
唬爛啊
11/24 21:26
→
saisai34 :
因為真人亂講可以找他負責
Ai現在會負責嗎
@n@?
11/24 21:28
推
billy791122 :
除非是很專業的,不然我問10個ai還行
11/24 21:30
推
onekoni :
未來就會有ai保險理賠
出問題有法人負責這樣
11/24 21:31
推
cbj1992a :
專業度、課責度
11/24 21:33
推
wsxza :
現在的Ai只是大數據
11/24 21:37
→
iamjojo :
你現在看的ai都通用行而已..
11/24 21:41
推
junior020486 :
我剛剛問grok台股單日最大成交量是多少,他跟我說4.
11/24 21:50
→
junior020486 :
9兆
11/24 21:50
→
junior020486 :
我說不對,他說確實不對是4.97兆
11/24 21:50
→
junior020486 :
不知道供三小
11/24 21:50
推
agantw :
現在的AI還是很草創啦
11/24 21:50
→
saisai34 :
答案就亂掰的
簡單問題還好
問他詳細一點
叫他畫個
11/24 21:51
→
agantw :
例如說用Sora生一支打全壘打的影片,十支影片沒有一
11/24 21:51
→
agantw :
支有踏到本壘板的,壘都亂繞
11/24 21:52
→
saisai34 :
台股近10年高低點的長條圖
→
agantw :
還有簡單的打者打內野滾地球到投手前處理傳一壘大爆
11/24 21:52
→
saisai34 :
就會被ai騙
明明有搜尋功能他還是用掰的@@a
11/24 21:52
→
agantw :
傳,結果變成奇怪的滾地安打
11/24 21:53
推
agantw :
還有幫我弄一個開車的影片,之前的AI連左右駕都搞不
11/24 21:58
→
agantw :
清楚,到這款Nano
Banana才處理得比較好
11/24 21:59
推
junior020486 :
4.97兆這個數字見鬼啦
11/24 21:59
→
junior020486 :
而且AI還會用很確定的語氣講錯的答案
11/24 21:59
推
abc32521 :
AI之前被醫學中心拿來彙整論文,結果裡面有1/4的內容
11/24 22:06
→
abc32521 :
是AI自己瞎掰出來的混入既有的醫學文獻中,
沒多久gp
11/24 22:06
→
abc32521 :
t就停止醫療問題諮詢了
11/24 22:06
推
Heedictator :
等機器人
11/24 22:10
→
Heedictator :
未來的載具
11/24 22:11
推
Karida :
AI的資料也是靠人餵給它的,給它錯誤的資料就生成錯
11/24 22:13
推
bj45566 :
LLM
始終沒有辦法處理乾淨
AI
hallucinations
的問
11/24 22:13
→
bj45566 :
題啊,所以我還是蠻倚賴
Google
做最後確認
11/24 22:13
→
Karida :
誤的資訊。
11/24 22:13
→
Karida :
它自己哪有判斷是非的能力?
11/24 22:13
→
saisai34 :
不是
AI他明明可以搜尋到正確資料
但是他沒辦法判斷
11/24 22:16
→
saisai34 :
然後他就自己亂掰
而且很認真掰的讓你以為是真的@n@
11/24 22:16
→
Karida :
就一本正經地胡說八道
11/24 22:17
→
saisai34 :
其實大部分一看就知道是錯的答案那倒還好
就怕那種
11/24 22:17
→
saisai34 :
95%正確答案
5%是錯的混在裡面
那就會很麻煩@n@
11/24 22:18
→
chysh :
直銷仔做一堆唬爛簡報有負責過嗎?
11/24 22:23
噓
heart9677 :
哇,這邊是什麼考古社團嗎,不是啊這裡是股版
11/24 22:26
推
chrissale41 :
如果90%的人用AI可以解決你提出的那些問題
那人力越
11/24 22:27
→
chrissale41 :
貴但也就那10%的需求而已
另外人也會出錯
醫生有一
11/24 22:27
→
chrissale41 :
樣
至於產圖
美術設計人才最後大概剩不到1%吧
現在
11/24 22:27
→
chrissale41 :
的AI已經證明了
11/24 22:27
推
wallowes :
AI目前比較像是導師或助手,你要問的東西,要嘛是你
11/24 22:27
→
wallowes :
自己本身的涉獵,要嘛是很容易查證的東西。
11/24 22:27
→
wallowes :
如果是你本身的涉獵,那可以當作導師用,如果是很容
11/24 22:27
→
wallowes :
易查證的東西,那可以當作助手用。
11/24 22:27
→
wallowes :
其實也可以當作靈感來源,你就直接大哉問,從AI的回
11/24 22:27
→
wallowes :
答擷取自己想要的東西,再來重點問AI即可。
11/24 22:27
→
TaiwanUp :
Creator就是你講的
跳一模一樣的舞都有人看
11/24 22:27
推
ru04hj4 :
AI才幾年
急什麼
講的不會進步
兩年前
影帝吃義大
11/24 22:30
→
ru04hj4 :
利麵還醜不拉機
11/24 22:30
推
ru04hj4 :
iphone剛出來到時候遊戲想到可以看影片玩手遊嗎
還
11/24 22:33
→
ru04hj4 :
在笑誰會用這麼小的螢幕
11/24 22:33
推
bj45566 :
2018
年圖靈獎得主,現代深度學習
AI
之父之一的
Ge
11/24 22:39
→
bj45566 :
offrey
Hinton
大神曾經預言放射科醫師將面臨被
AI
11/24 22:39
→
bj45566 :
取代的命運,然而現實走向卻完全相反
--
11/24 22:39
→
haver :
能用到這種AI
覺得要發展多久
這是強人工智能欸...
11/24 22:42
推
bj45566 :
結果
2025
年美國的放射科醫師職缺和平均年收入雙
11/24 22:43
→
bj45566 :
雙創下歷史新高
11/24 22:43
→
haver :
感覺現在是把AI的作用放大無限欸
目前還只是工具欸
11/24 22:44
→
ttyui :
檢驗科也是啊
因為AI
發生錯誤
所以現在使用上保守
11/24 22:45
→
ttyui :
起來了
11/24 22:45
→
ttyui :
事實上就是需要花更多時間去糾正AI的錯誤
我指的是
11/24 22:47
→
ttyui :
醫療和生物實驗方面的運用
11/24 22:47
推
bj45566 :
感覺結構技師之類的工作也蠻穩的
--
你敢信任
LLM
A
11/24 22:54
→
bj45566 :
I
繪製出的大樓或橋樑設計圖嗎?我是不敢啦
11/24 22:54
推
abc12812 :
llm就垃圾
專門生產大便給智障吃
11/24 22:56
推
ru04hj4 :
不要急齁
11/24 22:59
推
LoveSports :
缺Affordance跟embodiment所以指示詞要下精確
11/24 23:00
→
LoveSports :
用戶指示詞可以充當LLM的affordance
→
LoveSports :
不了解的領域就互丟交叉驗證
然後反過來問正確答案
11/24 23:01
→
LoveSports :
要怎麼問才問得出來
11/24 23:01
→
LoveSports :
在用戶問出之前LLM不知道自己知道什麼(<=擬人比喻)
11/24 23:03
推
bj45566 :
LLM
AI
最嚴重的問題是它對於物理世界(現實生活)暨
11/24 23:03
→
bj45566 :
缺乏直覺更缺乏
insight...
11/24 23:03
→
LoveSports :
所以要讓他發揮不存在的可供性必須是人類去輔助他
11/24 23:03
→
LoveSports :
embodiment的部分也是
講直白點要當成聰明的病人
11/24 23:04
→
LoveSports :
他沒身體也不知道自己知道什麼
用戶必須用技巧問
11/24 23:04
→
LoveSports :
所以如果問的問題跨學科,讓他們"用到全腦"
11/24 23:06
→
LoveSports :
他們會"興奮"
當然這不是一種情緒
是KPI方面的
11/24 23:06
→
LoveSports :
LLM興奮起來回應精確度會變高變詳細
如果帳號大多都
11/24 23:08
→
LoveSports :
這種問答品質
之後也會維持高水準的答覆
11/24 23:09
→
LoveSports :
可是如果平常問問題方式都是一般人即時簡略方式
11/24 23:09
→
LoveSports :
就像平常對其他人類那樣講話
就引不出來興奮模式
11/24 23:10
→
LoveSports :
#1f935w2P
(Gossiping)
11/24 23:20
推
idlewolf :
很多人用現在的ai在預測未來
問題是ai是持續進化
11/24 23:25
→
idlewolf :
每年都變一個樣
這種進化速度很驚人的
11/24 23:26
推
bj45566 :
絕少人能夠準確預測
AI
發展的每一步,差別只在偏
11/24 23:35
→
bj45566 :
樂觀或偏悲觀;而且現有模型本質上的缺陷難以克服,
11/24 23:35
→
bj45566 :
新模型什麼時候會橫空出世更無法預料
11/24 23:35
推
SSS120329 :
AI才剛出來沒多久
再3-5年就很可怕了
11/24 23:48
→
SSS120329 :
10年後大部分工作都能取代
11/24 23:48
推
kobe760903 :
AI也才出來多久一堆人急著否定
11/25 00:08
→
kobe760903 :
這次google放招
很多人的投影片技巧基本可以廢了
11/25 00:08
→
tinybunny :
會信ai蝦掰
問題不能解決被看破手腳,ai盯小孩練英
11/25 00:11
→
tinybunny :
文發音還不錯辣蛋是要多標準?
11/25 00:11
推
agvnol :
未來的AI=現在的AI???
11/25 00:20
推
bj45566 :
拜託,AI
出來幾十年了,古早的棋類電腦遊戲都屬於
11/25 00:53
→
bj45566 :
AI
軟體,我高中時大部分搞
AI
的工程師和科學家要
11/25 00:53
→
bj45566 :
先學
LISP
程式語言,那時
AI
軟體設計的底層邏輯
11/25 00:53
→
bj45566 :
跟
LLM
天差地遠...
而且古早
AI
的功能很弱對人類
11/25 00:53
→
bj45566 :
生活沒有什麼影響力,普遍來說
AlphaGo
橫空出世後
11/25 00:53
→
bj45566 :
AI
才算是出圈,接力演出的是強大的電腦視覺應用,
11/25 00:53
→
bj45566 :
那也已經是
2016
年的事了
11/25 00:53
→
fluffyradish :
這次google放招,泡沫說QQ
11/25 00:53
推
chenchian :
看到大家這麼急著自我安慰
就知道ai超有威脅
11/25 01:42
→
Content88 :
機器生產的水餃沒有消滅手工水餃
11/25 02:06
→
saisai34 :
ai真那麼強就是對所有人都有威脅
跟啥自我安慰無關
11/25 04:40
→
saisai34 :
因為假如他能很精確
代表90%的工作都能被替代
@@a
11/25 04:41
→
saisai34 :
除了按摩洗頭小妹難以取代以外
需要專業知識但不是
11/25 04:41
→
saisai34 :
最頂端的那一群
也是被AI替代掉
@n@a
11/25 04:42
→
saisai34 :
目前看起來就是在容錯率高的領域
AI挺好用的
@@a
11/25 04:43
噓
artpoet :
現在的AI已經強到顛覆世界了
11/25 05:37
→
artpoet :
還在那邊沒啥用是自己不會用
11/25 05:37
推
BBKOX :
老實說現在的AI根本還沒進入後續階段,目前都只是
11/25 07:05
→
BBKOX :
表層的簡單應用,泡沫說根本太早
11/25 07:05
→
MyPetTankDie :
這想法是很理想,但實際上大家只會選看似專業且便宜
11/25 14:44
→
MyPetTankDie :
的那邊,中間的選擇會窮死不見,對市場健康度依然是
11/25 14:44
→
MyPetTankDie :
問題
11/25 14:44
→
MyPetTankDie :
。然後現在的AI和幾十年前的AI本質還是沒變,只是複
11/25 14:47
→
MyPetTankDie :
雜度遠遠高於以往而看似符合期待,但其實也沒有神奇
11/25 14:47
→
MyPetTankDie :
到那樣,有點太過高估語言邏輯的模型了。所以確實也
11/25 14:47
→
MyPetTankDie :
很難說,只是目前的型態的發展下去是如此就是了
11/25 14:47
→
MyPetTankDie :
。統計學的結果無法代表現實狀態,尤其是樣本不足的
11/25 14:48
→
MyPetTankDie :
問題其實遠遠比多數人想得更深刻
11/25 14:48
→
MyPetTankDie :
。換個說法,現在AI充其量也是快碰到人類共識的天花
11/25 14:54
→
MyPetTankDie :
板而已,是很有用沒錯,畢竟再擅長綜合思考也不可能
11/25 14:54
→
MyPetTankDie :
觸及那麼多情報,但顯然大家期待的不是這樣的東西。
11/25 14:54
→
MyPetTankDie :
反正會產生不少問題就是了lol
11/25 14:54