
0人評分過此書
提問力,是AI時代的生存武器。
一本書,幫助我們「精準提問、正確下指令」,
和AI對話更有效率,工作和生活都用得到!
自從生成式人工智慧(Generative AI)問世以來,它模仿人類的價值觀、信念和思考,如同人類的分身一樣。
像是ChatGPT這種生成式AI,許多回答看似言之有物卻不盡合理,甚至是捏造、偏頗的內容,讓人不知如何是好。
大型語言模型(LLM,Large Language Model)是生成式AI的核心技術,在進化的學習環境中,大型語言模型透過和人類對話,以及和其他生成式AI與各種應用程式、外部硬體互動,都會提升生成式AI的能力,更能幫助我們解決現實世界的課題。
為了要讓ChatGPT這類大型語言模型發揮最大的能力,身為人類的我們,必須學會如何和大型語言模型溝通,進而善用AI的最大潛力。
本書作者岡瑞起(OKA Mizuki)和橋本康弘(HASHIMOTO Yasuhiro)是日本AI專家,兩人帶領讀者了解「精準提問、正確下指令」的基本知識,並且分析大型語言模型的機制,介紹指令模式、觸發指令,幫助我們掌握與AI對話的技巧和知識。作者也提醒,生成式AI有可能成為人類的AI代理人,我們必須加速了解AI代理人的自律性、社會性和嶄新的資訊生態系。
提問力,是AI時代的生存武器。如果你還沒有準備好如何與AI對話,一定要閱讀這本書!
一本書,幫助我們「精準提問、正確下指令」,
和AI對話更有效率,工作和生活都用得到!
自從生成式人工智慧(Generative AI)問世以來,它模仿人類的價值觀、信念和思考,如同人類的分身一樣。
像是ChatGPT這種生成式AI,許多回答看似言之有物卻不盡合理,甚至是捏造、偏頗的內容,讓人不知如何是好。
大型語言模型(LLM,Large Language Model)是生成式AI的核心技術,在進化的學習環境中,大型語言模型透過和人類對話,以及和其他生成式AI與各種應用程式、外部硬體互動,都會提升生成式AI的能力,更能幫助我們解決現實世界的課題。
為了要讓ChatGPT這類大型語言模型發揮最大的能力,身為人類的我們,必須學會如何和大型語言模型溝通,進而善用AI的最大潛力。
本書作者岡瑞起(OKA Mizuki)和橋本康弘(HASHIMOTO Yasuhiro)是日本AI專家,兩人帶領讀者了解「精準提問、正確下指令」的基本知識,並且分析大型語言模型的機制,介紹指令模式、觸發指令,幫助我們掌握與AI對話的技巧和知識。作者也提醒,生成式AI有可能成為人類的AI代理人,我們必須加速了解AI代理人的自律性、社會性和嶄新的資訊生態系。
提問力,是AI時代的生存武器。如果你還沒有準備好如何與AI對話,一定要閱讀這本書!
- 前言
-
第1章 大型語言模型登場
-
1-1 蔚為社會現象的ChatGPT
-
| 學會對話的電腦
-
| ChatGPT的成功
-
| ChatGPT的核心技術
-
| 轉換器
-
| 自監督式學習:利用克漏字填充的方式自行學習
-
| 進化為大型語言模型
-
| 專為對話設計的學習
-
| AI對齊
-
-
1-2 工作會隨著AI改變嗎?
-
| AI對工作的影響
-
| AI改變的產值
-
| 人們的態度與期待的變化
-
| 哪些工作會被AI取代呢?
-
-
1-3 與AI共存的必要性
-
| 比人類更聰明的存在
-
| 獲得與AI合作的技能
-
-
-
第2章 提示工程
-
2-1 什麼是提示詞
-
| 「提示詞」的語義
-
| 產生後續文章的提示詞
-
| 指定語境的提示詞
-
| 追加新資訊的提示詞
-
-
2-2 輸入提示詞的注意事項
-
| 強烈模式
-
| 更具體、更詳盡
-
| 利用提示詞設計程式
-
-
2-3 馴服大型語言模型
-
| 人工智慧幻覺
-
| 重新思考提示詞為何如此重要
-
| 大型語言模型驚人的適應力與靈活度
-
| 提示素養(prompt literacy)
-
-
-
第3章 提示模式
-
3-1 人物誌模式
-
| 角色扮演
-
| 不需要實際存在的人物誌
-
| 語法
-
-
3-2 受眾人物誌模式
-
| 活用人物誌
-
| 受眾多元
-
| 語法
-
-
3-3 精緻化詢問
-
| 讓問題更具體
-
| 組合模式
-
| 語法
-
-
3-4 認知驗證模式
-
| 課題的分治
-
| 粗略計算:用信封背面隨手估算的費米推論
-
| 提示詞的範例
-
-
3-5 翻轉互動模式
-
| 有能力的諮商師
-
| 提示詞的範例
-
-
3-6 少量樣本提示模式
-
| Show, don’t tell(用展示,不要用說的)
-
| 透過少量樣本提示模式分析情緒
-
| 零樣本/單一樣本/少量樣本
-
| 根據部落格的內容產生標題
-
| 中間步驟的提示詞
-
| 自動產生範例
-
-
-
第4章 觸發式提示詞的威力
-
4-1 Chain-of-Thought模式
-
| 依序思考
-
| 提示詞的範例
-
| 零樣本思維鏈模式
-
| 補充
-
-
4-2 Chain-of-Verification模式
-
| 驗證的分治
-
| 使用觸發式提示詞的方法
-
| 分類語境的方法
-
| 補充
-
-
4-3 退一步提示模式
-
| 退後一步再思考
-
| 提示詞的範例
-
| 自動產出退一步問題
-
| 補充
-
-
4-4 後設認知提示模式
-
| 學而不思則罔
-
| 後設認知
-
| 後設認知的提示模式範例
-
| 補充
-
-
-
第5章 進階發展的技術
-
5-1 自我一致性模式
-
| 三個臭皮匠,勝過一個諸葛亮
-
| 提示詞範例
-
| 補充
-
-
5-2 ReAct模式
-
| 擁有行動能力的大型語言模型
-
| 透過API擴張的行動範圍
-
| ReAct模式的執行範例
-
| ReAct也有可能推論錯誤
-
-
5-3 RAG(搜尋增強生成)
-
| 事前學習的極限
-
| 何謂RAG
-
| 建置經典的RAG
-
-
5-4 LLM-as-Agent
-
| Reflexion
-
| 奠基於「心智理論」的AI代理人
-
| 多代理人AI模型
-
-
-
第6章 AI代理人和社會
-
6-1 AI代理人的自律性
-
| 何謂自律性
-
| 大型語言模型的自律性
-
| 封閉的世界
-
-
6-2 AI代理人的社會性
-
| 不負責任的AI
-
| 猶如外星人的AI
-
| 人類眼中的「外界」
-
-
6-3 嶄新的資訊生態系
-
| 社會化的AI代理人
-
| 惡劣的AI代理人
-
| 人類與AI共生
-
-
- 結語
- 謝辭
- 出版地 : 臺灣
- 語言 : 繁體中文
評分與評論
請登入後再留言與評分