
我在課堂上看見了:同樣用 AI,為什麼有人越來越強,有人越來越空洞?
前言
上週發表的《34年,凌晨六點,一封信:AI 時代的職場結構正在悄悄重組》,談的是 AI 浪潮下職場結構的位移。文章發出後沒幾天,現實又給了兩個更直接的案例。
2026 年 4 月 23 日,Meta 宣布裁員約 8,000 人,約佔全球員工的 10%,同時取消約 6,000 個職缺,資本支出計劃高達 1,150 億至 1,350 億美元。同一天,Microsoft 宣布啟動 51 年來首次的自願提前退休方案,通知約 8,750 名符合資格的美國員工,資格門檻是年齡加年資合計達 70 以上。兩家科技巨頭在同一週做出同樣性質的決定,方向都一樣:把人力成本轉換成 AI 算力的投資。這不是巧合,而是一個結構性的集體訊號,也是上週那篇文章所描述的趨勢,正在以更快的速度發生。
在這個趨勢裡,前幾天《同樣的 AI 工具,為什麼有人用得出色,有人卻卡關?》那篇談的是工具,這篇我想往裡面再走一步,談一個我在工作現場親眼觀察到的現象:同樣在用 AI,有人用出了水準,有人卻用出了空洞。差距不在工具,而在使用工具的人,自己有多少底子。

社會現象觀察:當 AI 幫你做完,你卻說不出它在講什麼
我在講師培訓的課程裡,有一個固定的驗收環節。學員要自己準備簡報,設計教學內容,然後上台演練。這幾年 AI 工具越來越普及,這個環節開始出現一個我很在意的現象。
有些學員交出來的東西,版面漂亮、架構整齊、文字也很流暢,第一眼看起來沒什麼問題。但我問幾個問題之後,或者看他們上台的過程,很快就能判斷出來:這份東西背後,學員自己到底懂多少。
判斷方式很簡單。我問「這個段落你為什麼這樣設計」,或者「這個概念你換個方式解釋一遍」,有底子的學員會直接回答,甚至多說一些。沒有底子的學員,會停頓,然後把 AI 給的文字重新念一遍。那個停頓,答案就出來了。
這在講師培訓裡特別明顯。當一個學員對自己要教的內容還不夠熟,對教學的節奏和設計也還沒有感覺,就算 AI 幫他把教案寫得再漂亮,站上台還是會露餡。字是對的,架構是對的,但就是沒有生命力,一眼就看得出來那個空洞在哪裡。
AI 是放大器,但它放大的不是你想要的東西,而是你已經有的東西。底子夠就放大判斷,底子不夠就把空洞包裝得更精緻。

企業營運影響分析:AI 放大了能力,也放大了空洞
有一次,我在講師培訓課程的驗收結束後,跟幾位學員聊。其中一位學員說,他這次的教學簡報是用 AI 幫他整理架構、生成內容的,他自己只做了一點微調。他說得很輕鬆,好像這是很正常的事。
我問他:「那你覺得這份教材的核心觀點是什麼?」他想了一下,說了一個方向。我再追問:「為什麼是這個方向?你的學員會怎麼理解?」他開始停頓。
這就是我想說的問題所在。當一個人有足夠的專業底子,AI 工具對他來說是真正的幫手。他知道自己要教什麼、要帶領學員走到哪裡,AI 幫他整理得更快、更清楚,產出品質會比以前更好。但當一個人的基礎還不夠扎實,AI 反而會幫他把這件事遮住。教材看起來完整,格式正確,文字也說得過去,但裡面沒有真正的判斷和思考。站上台,學員感受得到。
而且我在這幾年的課程經驗裡,觀察到一個讓我很在意的現象:有一部分的學員,因為 AI 工具的出現,反而開始輕忽基本職能和基本學能的養成。他們覺得 AI 可以補,所以基礎夠不夠扎實好像不那麼重要了。但這個邏輯是反的。AI 補不了底子,它只能放大你已經有的東西。
這種情況不只出現在講師培訓的課堂上,在很多組織裡都看得見。主管沒辦法每次都深追下去,員工也不見得意識到自己的基礎在哪裡出了問題。沒有人故意這樣,但這件事不會自己消失。
接下來我想借三個研究,說清楚這件事背後的邏輯,以及有哪些在實務上真的可以做的事。

管理策略與理論應用:三個實務建議的深層解析
(一)你要先知道 AI 的邊界在哪裡,才能真正用好它
Dell’Acqua 等人(2023)在哈佛商學院主導的大規模實地實驗中,讓 758 名波士頓顧問公司的顧問使用 GPT-4 完成真實的管理顧問任務。研究發現,AI 對某些任務能大幅提升表現,但對另一些任務,即便難度看起來相近,使用 AI 反而讓正確率下降了 19 個百分點。原因很清楚:那些表現變差的顧問,傾向於直接接受 AI 的輸出,沒有用自己的專業去審視它。這個研究說明的本質問題是:你的領域知識,決定了你有沒有能力判斷 AI 什麼時候是對的、什麼時候在帶你走偏。沒有這個能力,工具越好用,風險越高。
以下幾個方向,不是新的口號,而是有研究在背後,也是我在培訓現場真正看到有用的做法。
- 個人:每次使用 AI 產出內容後,在提交之前用自己的話把核心判斷重新說一遍,不看 AI 的版本。如果說不出來,就是還沒真正理解,回去重新想過。這個動作會讓你很快知道自己在哪些領域有足夠的判斷力可以駕馭 AI,在哪些領域還需要補強。
- 主管:在驗收部屬的產出時,固定追問「這個判斷你是怎麼得出來的,如果沒有 AI 你會怎麼做」。不是為了刁難,而是讓你真正看見誰有底子在支撐產出,誰只是在轉手 AI 的輸出。看得見這個差距,才能做出有意義的人才判斷。
- 企業:針對核心業務流程,建立一份「哪些判斷不能完全交給 AI」的清單,每季檢視一次。這不是在限制工具的使用,而是讓組織對自己的專業邊界保持清醒,知道哪裡是人必須在場的地方。
(二)AI 的天花板,就是你的專業基礎
Noy 與 Zhang(2023)在《科學》期刊發表的實驗,讓 453 名大學學歷的專業工作者使用 ChatGPT 完成中階文書任務,完成時間縮短約 0.8 個標準差、產出品質提升約 0.4 個標準差。但這裡有一個值得深想的細節:獲益最多的是專業基礎相對尚未扎實的工作者,基礎較深厚的人獲益反而有限。這個發現放在中階文書工作的情境下成立,但當工作需要真正的專業判斷,情況就完全不同了。這個研究的本質是:AI 能讓人看起來更好,但它補不了真正的判斷力。你能從 AI 拿到什麼,上限就是你的專業基礎。基礎不夠,AI 只是幫你把空洞包裝得更精緻。
從這個理解出發,有幾件具體的事值得做。
- 個人:每個月安排一次不使用任何 AI 工具,獨立完成一項你平常倚賴 AI 協助的工作。目的不是為難自己,而是讓自己清楚知道真實的判斷力在哪裡、有沒有在退步。這個自我校準的動作,是維持專業基礎最直接的方式。
- 主管:在年度或季度的人才評估中,加入至少一個不借助 AI 的情境考核。這不是要禁止使用工具,而是讓組織看見人才真正的專業基礎,而不只是操作工具的熟練度。兩者都重要,但不能混為一談。
- 企業:培訓預算的配置需要重新審視。AI 工具的操作訓練固然重要,但專業職能的培育預算不能因此縮水。尤其在 AI 導入的初期,反而應該加重對專業底子的投入,因為這個階段最容易讓人誤以為工具可以取代底子。這不是遠期的風險,而是已經在發生的事。
(三)判斷力的退化是無聲的,等你發現已經太晚
Ehsan 等人(2026)對癌症專科醫師進行了為期一年的縱向研究,追蹤他們長期使用 AI 輔助決策工具的過程。初期效率確實提升,但隨著時間推移,出現了他們稱之為「直覺生鏽」的現象,專業判斷力在不知不覺間逐漸鈍化。這個研究最核心的發現是:這種退化是無症狀的。你不會感覺到自己在變差,但它一直在發生。等到真正需要獨立判斷的那一刻,才會發現手感已經不在了。這不只是醫療領域的問題,任何需要深度專業判斷的工作都面對同樣的風險。
要對抗這件事,需要刻意的設計,不能靠自覺。
- 個人:為自己設一個固定的「刻意練習」時間,專門處理那些你最容易交給 AI 的判斷型工作。頻率不需要高,但要固定、要真實。同時養成一個習慣:每次交出 AI 輔助的產出之前,問自己「如果沒有這個工具,我有能力做出同樣品質的判斷嗎」。這個問題不是在阻止你用 AI,而是讓你對自己的狀態保持誠實。
- 主管:在團隊裡建立一個可以說「我不確定」的文化。判斷力退化最危險的地方,不是退化本身,而是沒有人敢承認。讓部屬在不確定的時候有空間說出來,比讓他們遞出一份看起來完整但其實空洞的 AI 產出,對組織要有價值得多。
- 企業:把「專業判斷力的維持」納入人才發展的長期指標,不只看員工有沒有在用 AI、用得熟不熟。評估方式可以是定期的情境模擬、真實案例的討論、或跨部門的專業審查機制。這不是遠期的風險,而是已經在發生的事。
三個理論,一條線
三個研究說的其實是同一件事:邊界、基礎、維持。這三件事我自己是當成一個整體在看的,少了任何一環,AI 給你的不是進步,是一種讓你感覺很好的幻覺。
這篇文章從一個我在課堂上親眼看見的現象出發:同樣在用 AI,有人用出了水準,有人卻用出了空洞。三個研究從不同角度說明了同一件事,AI 是放大器,它放大你已經有的東西,不會憑空創造你沒有的判斷力。
結論
而我在這幾年的培訓現場也持續觀察到,AI 工具的普及,正在讓一部分的人開始輕忽基本職能與基本學能的養成。這個趨勢不會立刻顯現,但會在某個需要真正判斷的時刻,讓人措手不及。
無論是企業主管、人資夥伴,還是正在發展自己專業的工作者,現在要問的問題不是「我有沒有在用 AI」,而是「我的專業基礎,撐不撐得起我想讓 AI 放大的東西」。如果你剛剛猶豫了,那可能就是該回頭練基本功的時候。工具可以給,底子要自己建。這是我在課程設計上一直沒有鬆動過的一件事。
參考文獻
Dell’Acqua, F., McFowland, E., Mollick, E. R., Lifshitz-Assaf, H., Kellogg, K. C., Rajendran, S., Krayer, L., Candelon, F., & Lakhani, K. R. (2023). Navigating the jagged technological frontier: Field experimental evidence of the effects of AI on knowledge worker productivity and quality. Harvard Business School Working Paper No. 24-013. https://www.hbs.edu/ris/Publication%20Files/24-013_d9b45b68-9e74-42d6-a1c6-c72fb70c7282.pdf
Ehsan, U., McNutt, T., Passi, S., Riedl, M. O., Saha, K., & Alcorn, S. (2026). From future of work to future of workers: Addressing asymptomatic AI harms for dignified human-AI interaction. arXiv:2601.21920. https://arxiv.org/pdf/2601.21920
Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science, 381, 187–192. https://doi.org/10.1126/science.adh2586
🎙️ 本文 Podcast 版|大叔師享談


