最近AI引發熱議,把玩了一下ChatGPT發現,真的不得了,應對的能力超乎預期,我覺得它之所以讓人驚豔之處在於,輸出的文字真的比過去那些不智慧的人工智慧(x)優異太多(如Siri小姐之流...抱歉但妳真的落伍了😂)。
在大家不斷發掘各種應用方式之下,例如可以叫它幫你蒐集資料直接產出一篇有模有樣的報告等等,話題源源不絕 (也給了記者好多抄不完的題材呢)。
討論熱度不亞於聊天AI,在社群上引爆話題的,還有繪圖AI。
- 👉吳淡如電繪之亂,你也參戰了嗎?
過去一直說:非創造性的工作會被機器取代喔,結果現在AI直接挑戰的,已經是過去被認為人類最不會被機器取代的:寫作、繪圖、一本正經瞎扯淡的能力了嗎?😂
我覺得人類最值得向ChatGPT學習的地方
這幾天看大家玩ChatGPT的反應,給我上的最大一課其實是:喔~原來這樣表述是大家普遍都會覺得回應得很厲害的方式啊 (筆記)。
ChatGPT就像是身邊那種無論什麼問題都能夠很快反應,很有自信說得頭頭是道的朋友/同事 (我發現身邊特別著迷於ChatGPT的主要就是這些人)。
它回答出來的內容經常有點小錯誤,偶爾會有嚴重的大錯誤,但整體回應架構漂亮,聽起來會第一直覺驚訝:哇!說得很好耶!即使有發現其中小錯誤的人也會覺得:「嗯...雖然某地方有點問題,但瑕不掩瑜」,當錯誤如果被指出來,也會很機靈的調整修正,而給人留下很好的印象,我覺得以上就是那些「很會講話」的人的特質。
至於ChatGPT的思考能力...... 慢著,你們該不會不知道ChatGPT它根本沒有在「思考」吧...
ChatGPT很厲害,可是所謂的「強AI」尚未到來
我看到有一部分談論AI的方向是:「剛剛我跟AI聊天,它突然說出了一些機器不可能說出來的話,令人毛骨悚然...」系列🤷♂️:
- [風傳媒]「最強AI」ChatGPT竟想「滅掉人類」還寫計畫書!她親測驚曝:它表面勵志,但內心超黑暗
- [華視新聞網] 微軟推AI新版「Bing」測試 引「智能叛變」疑慮
- [Yahoo新聞] 兩個最強AI模型聊了會天,對話內容令人脊背發涼
不排除,以上這些情境大多只是拿來當做個哈啦有趣的話題,說者故意危言聳聽,也知道聽者其實並不會有要當真的意思?
但我不禁開始同情起去年那位因為說AI有人性而引發喧然大波還因洩漏內部機密被Google停職的倫理學家了:
雖然「強AI」(Strong AI,又稱通用人工智慧-Artificial General Intelligence, AGI,是指能夠具備與人類同等、甚至超越人類智慧的人工智慧,能像人類一樣,靈活地解決各種不同類型的問題,具有認知以及自我意識等能力)是許多 AI 研究開發者的目標與夢想,但它目前尚未出現。
ChatGPT 因為太擅於「產出通順的語言」,讓人產生以為是在跟真人對話的錯覺,但如果知道它的原理就知道,它畢竟就是個「語言」「模型」,開發者並沒有要讓他做「思考」這件事,而它也並沒有在進行「思考」或「理解」。(雖然說,這句話其實涉及到「思考」這個詞如何定義,但仔細琢磨下去就太複雜了)
請參閱 ChatGPT 的自白:「AI 是否會思考」
為什麼ChatGPT之類的AI可以像人類一樣對答如流?
ChatGPT是一種「生成式AI」,這類聊天AI(或聊天機器人)其實是透過機率來猜測你想要什麼樣的答案。
它的運作方式是靠著龐大語料庫跟運算資源在背後撐腰,歸納出語言的統計特性,知道在給定某些文字下,下一個應該要輸出哪一個字的機率最大,舉一個類似的例子就是注音輸入法自己會自己幫我們自動選字,而ChatGPT又更進一步逐一用「文字接龍」的方式接出完整的話及一整篇文章。
(可能是因為現在可供AI學習的巨量網路資訊累積到了一定的程度,顯示卡的運算能力及價格比也到了一個足夠負荷的等級,於是煉蠱練出來的AI能力就大爆發了)
換言之,它是由它被餵養的巨量資料所組成的一個模糊化整體,依據機率猜測你最想要聽到的回答,而在很多情況下這樣生出來的答案剛好就是正解,或至少是足夠好的答案。
但也因此,千萬不要被它流暢的文字所迷惑,而誤把它當成老師或百科全書,從根本上就有所差異。
簡單理解生成式AI的原理
生成式AI就像一個很聰明的「模仿機器」。
想像你教一個小孩學說話:
你念很多很多故事給他聽
他慢慢學會哪些字會接在一起
最後他可以自己說出新的句子
生成式AI也是這樣:
餵它吃很多資料 - 網路上的文章、書籍、圖片等等
它學會規律 - 什麼字通常接在什麼字後面,什麼顏色通常在什麼地方出現
它開始創造 - 根據學到的規律,產生新的文字、圖片或聲音
就像你問它「天空是什麼顏色?」它會記得:「我看過很多資料說天空是藍色的」,然後回答「藍色」。
請它畫一隻貓,它會記得:「貓通常有毛、有鬍鬚、有尖耳朵」,然後畫出一隻新的貓。
簡單說:它是個超級會學習和模仿的機器,學會後就能創造出新東西。
又經過幾年的發展,現在(2025年)的AI已經不只是「模仿機器」了:
1. 會「慢想」的AI
像OpenAI的o1模型會先產生一長串內部過程,糾正錯誤、把困難問題拆解成簡單步驟,然後才回答你,就像你做數學題時會在草稿紙上算一算,它也會先「想一想」
2. 多重推理能力
能處理多步驟推理,回答複雜問題而不用你拆解成好幾個搜尋
不只是記住答案,而是能推理出答案
3. 多感官整合
能同時處理聲音、視覺和文字,做到即時推理
就像人類能同時看、聽、想
為什麼結果看起來更複雜?
因為現在的AI有了「智慧湧現」現象 - 當模型夠大、資料夠多時,會出現一些連開發者都意想不到的能力:
能解決沒學過的問題
能理解複雜的因果關係
能進行抽象推理
簡單說:它從「超級鸚鵡」進化成了「會推理的助手」。雖然核心原理還是從大量資料學習,但現在能做的遠超過單純的模仿了。
ChatGPT最擅長的事,仍然在於它語言模型的本色
例如:
- 回答那種「沒有標準答案的問題」(越有標準答案的問題就越有可能親眼見它翻車😂),或是產出一些比較虛的、做做文章型的資料、文案發想等,ChatGPT就很能達到唬人的作用。
- 文章翻譯。ChatGPT比Google翻譯更能夠抓到那些文字間的慣用語,而不會一根腸子通到底的粗暴直譯,而且翻出來的譯文也通順很多。加上因為有被餵上很多社群網站的資料之類的,有一些非正式語言的梗它會抓的到。
- 潤稿。當你需要的是一段四平八穩的文字時。可以把一些雜亂的資訊丟給它讓它幫你組織好,像我們英文不好的非母語者,拿來修正英文稿很好用。ChatGPT也很擅於角色扮演,所以可以下指令請它幫你把文章或信件弄成道地的英國腔、或是改寫成熱情洋溢的語氣等等。
- 提供靈感。問它問題,叫它生出10個、20個或N個選項及理由,覺得不好還可以不斷加條件叫它修正,它可以源源不絕的生出來給你。
- 據說很會寫程式?雖然我不懂程式,無法評論,但畢竟程式就是一種語言,語言模型很擅長程式語言也是挺合理的...(
然後我聽到一個笑話,程式自己會寫程式,哇!AI已經進化到會繁衍後代的程度了呢🤣)
現階段我還是沒有用 ChatGPT 來取代搜尋引擎,因為我很害怕它流暢地用一些錯誤資訊組織成一篇很有說服力的文字(大家稱之為「AI幻覺」),人類太容易被它那種理所當然的描述方式誤導了。所以我還是會以傳統搜尋引擎列出各項資訊來源,讓我自行挑選要參考的來源。
不過,現在也有 Perplexity 這樣的「用AI 聊天機器人驅動的搜尋引擎」,可以用 AI 對話的方式問它問題,它經過搜尋之後,將搜尋到的相關網頁資訊組織成一段段的文字敘述,就像跟 AI 對話問答一樣,你再從它所附的連結連進去看搜尋到的原始網頁,就可以判斷AI告訴你的答案是真的有根據來源,而不是它自己瞎掰或轉譯錯誤的。
0 Comments:
張貼留言