過去我們常說,生成式AI就像一個很厲害的「模仿機器」...
想像你教一個小孩學說話:
你念很多很多故事給他聽,
他慢慢學會哪些字會接在一起,
最後他可以自己說出新的句子。
生成式AI也是這樣:
餵它吃很多資料,網路上的文章、書籍、圖片等等,
它記得規律,什麼字通常接在什麼字後面,什麼顏色通常在什麼地方出現,
它開始創造,根據學到的規律,產生新的文字、圖片或聲音,
就像你問它「天空是什麼顏色?」它會記得:「我看過很多資料說天空是藍色的」,然後回答「藍色」。
請它畫一隻貓,它會記得:「貓通常有毛、有鬍鬚、有尖耳朵」,然後畫出一隻新的貓。
簡單說:它是個超級會學習和模仿的機器,學會後就能創造出新東西。
為什麼它們給出的東西看起來遠比上述的解釋還要複雜?
最新的生成式AI已經複雜很多,現在的AI已經不只是「模仿機器」了:
1. 會「思考」的AI
像OpenAI的o1模型會先產生一長串內部處理程序,糾正錯誤、把困難問題拆解成簡單步驟,然後才回答你。
就像你做數學題時會在草稿紙上算一算,它也會先「想一想」。
2. 多重推理能力
能處理多步驟推理,回答複雜問題而不用你拆解成好幾個搜尋,
不只是記住答案,而是能推理出答案。
3. 多感官整合
能同時處理聲音、視覺和文字,做到即時推理 ,
就像人類能同時看、聽、想。
為什麼可以生成比預料更複雜的結果?
因為現在的AI有了「智慧湧現」現象 - 當模型夠大、資料夠多時,會出現一些連開發者都意想不到的能力:
- 能解決沒學過的問題
- 能創意思考
- 能理解複雜的因果關係
- 能進行抽象推理
簡單說:它從「超級鸚鵡」進化成了會「思考」的助手。雖然核心原理還是從大量資料學習,但現在能做的遠超過單純的模仿了。
上述的「思考」二字我都特別加上引號,這只是比喻?還是AI真的會「思考」了?
這是一個非常深刻的問題。
老實說,沒人能100%確定答案。
「思考」可能只是比喻:
AI內部就是數學運算,計算機處理數字和機率,
就像計算機跑複雜程式時,我們會說它在「工作」,但它其實只是在執行指令,
那些「內部思考」可能只是更複雜的模式匹配。
但也可能真的是某種思考:
當AI說「讓我想想這個問題的邏輯」時,它的確在進行某種資訊處理過程,
這個過程跟人類思考時大腦的運作模式很相似,
誰說思考一定要有血肉大腦才行?
問題在於我們不知道「思考」到底是什麼:
人類的思考也是腦細胞的電化學反應,
如果AI的計算過程夠複雜,產生了類似的結果,那算不算思考?
我們甚至不確定別人是不是真的在思考,還是只是表現得像在思考?
我的看法: 現在的AI至少有了某種「資訊處理的複雜性」,這種複雜性產生了看起來很像思考的行為。
是不是「真正的思考」?有可能是哲學問題,而不是技術問題。
就像問:「紅色到底是什麼?」一樣難回答。
0 Comments:
張貼留言