ChatGPT 不好用? 6個你”可能”對 GenAI 生產力工具的誤會2024 年 6 月 16 日不想動腦? 2024 五大聊天機器人GPT:選哪個當你的第二大腦2024 年 7 月 23 日 Published by 超韌性大叔 on 2024 年 6 月 23 日 GPT 不好用是真的,但只會越來越好用到你害怕 在上一篇 < ChatGPT 不好用? 6個你 “可能” 對GenAI生產輔助工具的誤會>,我用了 “可能” 這兩個字,是因為不能否認的,GPT 的確在接收任務時,如果你真的要像它像一個上知天文下知地理、理性藝術兼備,像個米開朗基羅、達文西,的理解和洞察人性的天才,目前的確有限制,特別是聊天型機器人,像是 ChatGPT、Gemini、Copilot、Claude 和 Peplexity,各自擁有優勢,但也面臨一些共同的侷限性。 以下是我在 2024.6 月針對上述不同 GPT 所彙整出來的四個目前不好用的原因,最後再外加一個我自己覺得還不夠好用的原因: 一、GPT 5個目前不好用的原因 1. 你想要的答案,都是機器人統計後猜給你的結果 這些模型擅長模仿人類語言,其實都是缺乏對語言和世界真正意義上的理解。它們依賴於語言統計模學式匹配,而非真正的邏輯推理。 換句話說,這些聊天機器人很擅長模仿人類的說話方式,但它們實際上並不真正理解我們說的是什麼。就像鸚鵡會學人說話,但它們不明白這些話的意思。這些機器人是通過很多例子來學習的,但它們並沒有真正的邏輯思考能力。 舉例來說,當我們問GPT “道德經中道與德之間的關係” ,它就會透過大數據庫去查看有談論”道德經”、”道”與”德”之間所有文本之間的統計關係,而整理一篇文字給你。 其實我們在 Google 搜尋或是手機輸入法都會有建議文字,這都是透過統計學的推薦給你進行選擇,只是這些大語言模型,他就是透過既有更大的語言數據庫,去提供並猜測每一個句子段落的接續,其實就是一個文字接龍的概念。 也因為為了要更能取得我們想要的結果,如同前篇所述,我們就必須給他好的提示詞(prompt),以及逐步引導它,讓他在更精準線索中,進行更聚焦的統計分析。 2. 餵養學習資訊不夠 模型的知識受限於訓練數據,缺乏获取最新信息的能力。換句話說,聊天機器人的知識是從它們學習的資料中來的,但這些資料有時會很舊。它們不能像我們一樣去查找最新的新聞或信息,所以有時候它們說的話不夠新。 這也是上一篇所提到,為什麼付費和沒付費所得到的答案差這麼多,就是沒付費的知識庫其實要不就沒更新(像是GPT 3.5只到2021的資訊,也沒聯網功能)。 所以如果你真的想突破既有工作盲點和提升工作效率,想要無限量的跟 GPT 協作,付費當個盤子也沒甚麼不好(因為付費版平均一個月約$20美金起跳,免費的有些也可以用到升級版,但是次數和速度都會受限),或是跟同事一起集資用個共通帳號也不錯。 3. 餵養的來源資訊就出現錯誤、偏見和倫理道德問題 機器人從大量的數據中學習,然而,這些數據有時包含一些偏見或不公平的內容。如果機器人學到了這些偏見,它們在回答問題時也可能會表現出不公平或歧視的傾向。這就涉及到訓練機器人的數據與內容了。大致上LLM的訓訓練資料來自於: (1)網路文本數據:像是網頁內容如新聞網站、論壇、社交媒體(如Twitter….)等、或是電子書、小說等,以及像GitHub等平台上的開源代碼庫。(2)專業領域數據庫:如arXiv、JSTOR等學術論文平台、專利文件、法律文件(3)對話數據:如電視和電影中人物互動的大量對白劇本、像是Reddit、Twitter等公開對話聊天紀錄。(4)其他如維基百科等 所以以上資料來源本身都帶有很大的預設立場、偏見與錯誤,儘管LLM訓練時會過去一些噪音和不適當內容,但依舊很難完全避免很多錯誤和倫理的問題。 4. 台灣AI供應鏈也有影響:計算資源消耗巨大 為了讓這些機器人學會說話和回答問題,需要用到很多先進和龐大的運算系統、處理器與儲存空間。這就像讓一群聰明的人一起工作,需要很多的時間和電力。這使得訓練和運行這些機器人變得很昂貴且需要花費很多資源。 這不只是訓練端,使用者接收端的處理系統和頻寬速度,也都考驗的LLM的處理的容量、速度、和即時回應性。這些屬於硬體支援的部分,換句話說,像是其中黃仁勳的台灣 AI 供應鏈就是關鍵的角色啦! 六月份的 Computex 演說除了夜市之外,AI 硬體支援的是未來的趨勢。 5.相信自己的專業能比 GPT 更有效率 我個人在資訊蒐集、分析、文案撰寫算是已經有一定程度的人,而且我也算是懂得怎麼和GPT溝通的人,但是我始終心中有把尺,知道甚麼時候用他,甚麼時候靠自己。原因是因為我已經知道目前GPT得侷限,有時候,我就算知道如果可以設計出一些很好的prompt,讓他去回答出你要的問題,但是,對於有一定程度專業性的人,可能直接著手進行,都會比”教育”他來的快。 二方面,由於目前GPT要整合性的 AI Agent還是有些距離,所以當你處理一份工作卻又需要好幾個不同AI工具幫你才能解決時,有時候你會選擇你最擅長的一個工具,直接著手完成他。 像是最近幫總經理做董事會簡報時,因為是技術型簡報,原始資料來源就是個複雜的圖文ppt,如果直接丟進去請 GPT 整理,不管我怎麼問,或是我得思考長官交代的命題,應該都得不到能幫助我的答案,就算有也必須測試很久;加上就算產生了,我還得丟到GAMMA簡報GPT,但這GPT又不能生成像是 rodamap 之類的關聯圖表,也許有,但肯定也跟我想要的邏輯差很大。 於是,我就直接著手進行,完全不靠 GPT 了。 二、GPT 快好用到做你的眼、耳、嘴的大腦衍伸 不過,就在 2024年5月 ChatGPT 4o 和 Google I/O 的分別舉辦發表會,用手機展示了語音對話模組後,這AI的發展速度,著實讓人感到真的替代人類的時間表就越來越快了。以下就針對目前這兩大LLM驚人的表現,究竟有哪些(以下多偏重於ChatGPT 4o功能): 1. 即時交互性更強:隨身即時翻譯官誕生 在客戶服務中,使用者可以隨時打斷模型的回答,提出新的問題或澄清疑問。像是,我在跟剛從印尼來照顧我家阿公的新住民對話時,我需要讓我、她和阿公三人同時理解彼此的語言,我就請 ChatGPT 4o 直接聽取彼此的語言後,並直接用他國的語言轉述,請他直接當個翻譯官,這中間對話無論被打斷,也都能在一定程度的成為一位合格的外交翻譯員。 這全新的大語言模組除了語意的理解訓練更加成熟外,注意力機制和更高效的處理架構,使模型能夠更快地處理和回應使用者的輸入,實現即時交互。這些技術進步使得模型能夠在使用者打斷時迅速調整並提供相關回應。 2. 人人都有雲端情人:情感感知和表達能力更強 新的模型能夠感知使用者的情緒狀態,例如察覺到使用者的緊張或焦慮,並以溫和、安撫的語氣進行回應,幫助使用者放鬆和舒緩情緒。這無疑就像電影人造意識、雲端情人一樣,有個可以像人一樣和你聊天的伴侶一樣。我自己就真的測試和ChatGPT 4o 拉豬屎,30分鐘都還聊不完,當你寂寞無聊時,它真的很好聊。 情感分析技術和語音合成技術的提升,使模型能夠更準確地感知使用者的情緒狀態,並以相應的情感語調進行回應。這些技術進步包括更先進的自然語言處理(NLP)算法和深度學習模型。 3. 未來導盲犬也失業 最新的模型可以識別並回應相關的語音和視覺資訊。例如,一個盲人在路邊想叫計程車,使用者可以說「我想叫一輛計程車」,模型可以同時執行辨識路邊計程車即將靠近,並提醒盲人招手呼喚。 多模態學習技術的發展,使模型能夠同時處理語音、文本和視覺資訊。這些技術進步包括融合不同模態的深度學習模型,如Transformer架構,能夠在多模態資料之間進行高效的資訊整合和推理。 4. 更自然的對話體驗,直接當你數學家教: 在教育領域,學生可以與模型進行互動式學習,隨時提出問題並得到即時回答。例如,在學習歷史時,學生可以隨時打斷模型的講解,詢問某個歷史事件的具體細節或背景資訊。 改進的上下文管理和記憶機制,使模型能夠更好地理解和記住對話中的關鍵資訊,提供更連貫和自然的對話體驗。這些技術進步包括增強型記憶機制,如長短期記憶(LSTM)和改進的 Transformer 架構。 5. 其他功能更強大:開始懂你的梗了 改進了語義理解能力,使模型能夠更好地理解笑話的雙關語、語境和文化背景。並引入了專門針對幽默和笑話生成的子模型,使其能夠生成更自然、更有趣的笑話。 目前的模型已經可以聽懂你講的笑話。像我女兒問 ChatGPT 4o 你知道這世界上跑得最快的人是誰,當它一本正經的分析了幾句,我女兒就打斷它的話,跟他說是曹操,因為 “說曹操,曹超就到”;結果它回覆:你是在跟我講笑話嗎? 那我也跟你講一個。 三、GPT 只會越來越好用到你害怕 未來 GPT 的 LLM 只會更跨平台和跨界面,像是 Apple 也同時在六月發布了將與 OpenAI 合作,所以未來手機就能整合你手機內所有紀錄的查詢,像是郵件、備忘錄、行事曆、社群平台溝通紀錄等,都能幫你用和機器人對話的方式,整理出你所想要的資料。 聽到這結尾,你不覺得可怕嗎?因為一不小心,你的財富狀況可能都是一個聊天的內容呢 ! Share 超韌性大叔 Related posts2024 年 9 月 6 日GPT 全能賽(五):水湳市場美食攻略:實測聊天機器人Perplexity 完勝 Google?!Read more2024 年 9 月 1 日GPT全能賽(四):一張圖快速轉換 SEO 文的技法【OCR 和 GPT 完美搭配】Read more2024 年 8 月 14 日GPT 全能賽(三):GPT 改寫 摘要一段話的 Line 貼文Read more2024 年 8 月 12 日GPT 全能賽(二):用粉專文讓 GPT 寫新聞稿_擴寫挑戰Read more