0人評分過此書

AI時代的提問力 Prompt Literacy:精準提問、正確下指令,善用AI的最大潛力!

出版社
出版日期
2025/07/08
閱讀格式
EPUB
書籍分類
學科分類
ISBN
9786267736036

本館館藏

借閱規則
當前可使用人數 30
借閱天數 14
線上看 0
借閱中 0
選擇分享方式

推薦本館採購書籍

您可以將喜歡的電子書推薦給圖書館,圖書館會參考讀者意見進行採購

讀者資料
圖書館
* 姓名
* 身分
系所
* E-mail
※ 我們會寄送一份副本至您填寫的Email中
電話
※ 電話格式為 區碼+電話號碼(ex. 0229235151)/ 手機格式為 0900111111
* 請輸入驗證碼
提問力,是AI時代的生存武器。

 

一本書,幫助我們「精準提問、正確下指令」,

和AI對話更有效率,工作和生活都用得到!

 

  自從生成式人工智慧(Generative AI)問世以來,它模仿人類的價值觀、信念和思考,如同人類的分身一樣。

  像是ChatGPT這種生成式AI,許多回答看似言之有物卻不盡合理,甚至是捏造、偏頗的內容,讓人不知如何是好。

  大型語言模型(LLM,Large Language Model)是生成式AI的核心技術,在進化的學習環境中,大型語言模型透過和人類對話,以及和其他生成式AI與各種應用程式、外部硬體互動,都會提升生成式AI的能力,更能幫助我們解決現實世界的課題。

  為了要讓ChatGPT這類大型語言模型發揮最大的能力,身為人類的我們,必須學會如何和大型語言模型溝通,進而善用AI的最大潛力。

  本書作者岡瑞起(OKA Mizuki)和橋本康弘(HASHIMOTO Yasuhiro)是日本AI專家,兩人帶領讀者了解「精準提問、正確下指令」的基本知識,並且分析大型語言模型的機制,介紹指令模式、觸發指令,幫助我們掌握與AI對話的技巧和知識。作者也提醒,生成式AI有可能成為人類的AI代理人,我們必須加速了解AI代理人的自律性、社會性和嶄新的資訊生態系。

  提問力,是AI時代的生存武器。如果你還沒有準備好如何與AI對話,一定要閱讀這本書!
  • 前言
  • 第1章 大型語言模型登場
    • 1-1 蔚為社會現象的ChatGPT
      • | 學會對話的電腦
      • | ChatGPT的成功
      • | ChatGPT的核心技術
      • | 轉換器
      • | 自監督式學習:利用克漏字填充的方式自行學習
      • | 進化為大型語言模型
      • | 專為對話設計的學習
      • | AI對齊
    • 1-2 工作會隨著AI改變嗎?
      • | AI對工作的影響
      • | AI改變的產值
      • | 人們的態度與期待的變化
      • | 哪些工作會被AI取代呢?
    • 1-3 與AI共存的必要性
      • | 比人類更聰明的存在
      • | 獲得與AI合作的技能
  • 第2章 提示工程
    • 2-1 什麼是提示詞
      • | 「提示詞」的語義
      • | 產生後續文章的提示詞
      • | 指定語境的提示詞
      • | 追加新資訊的提示詞
    • 2-2 輸入提示詞的注意事項
      • | 強烈模式
      • | 更具體、更詳盡
      • | 利用提示詞設計程式
    • 2-3 馴服大型語言模型
      • | 人工智慧幻覺
      • | 重新思考提示詞為何如此重要
      • | 大型語言模型驚人的適應力與靈活度
      • | 提示素養(prompt literacy)
  • 第3章 提示模式
    • 3-1 人物誌模式
      • | 角色扮演
      • | 不需要實際存在的人物誌
      • | 語法
    • 3-2 受眾人物誌模式
      • | 活用人物誌
      • | 受眾多元
      • | 語法
    • 3-3 精緻化詢問
      • | 讓問題更具體
      • | 組合模式
      • | 語法
    • 3-4 認知驗證模式
      • | 課題的分治
      • | 粗略計算:用信封背面隨手估算的費米推論
      • | 提示詞的範例
    • 3-5 翻轉互動模式
      • | 有能力的諮商師
      • | 提示詞的範例
    • 3-6 少量樣本提示模式
      • | Show, don’t tell(用展示,不要用說的)
      • | 透過少量樣本提示模式分析情緒
      • | 零樣本/單一樣本/少量樣本
      • | 根據部落格的內容產生標題
      • | 中間步驟的提示詞
      • | 自動產生範例
  • 第4章 觸發式提示詞的威力
    • 4-1 Chain-of-Thought模式
      • | 依序思考
      • | 提示詞的範例
      • | 零樣本思維鏈模式
      • | 補充
    • 4-2 Chain-of-Verification模式
      • | 驗證的分治
      • | 使用觸發式提示詞的方法
      • | 分類語境的方法
      • | 補充
    • 4-3 退一步提示模式
      • | 退後一步再思考
      • | 提示詞的範例
      • | 自動產出退一步問題
      • | 補充
    • 4-4 後設認知提示模式
      • | 學而不思則罔
      • | 後設認知
      • | 後設認知的提示模式範例
      • | 補充
  • 第5章 進階發展的技術
    • 5-1 自我一致性模式
      • | 三個臭皮匠,勝過一個諸葛亮
      • | 提示詞範例
      • | 補充
    • 5-2 ReAct模式
      • | 擁有行動能力的大型語言模型
      • | 透過API擴張的行動範圍
      • | ReAct模式的執行範例
      • | ReAct也有可能推論錯誤
    • 5-3 RAG(搜尋增強生成)
      • | 事前學習的極限
      • | 何謂RAG
      • | 建置經典的RAG
    • 5-4 LLM-as-Agent
      • | Reflexion
      • | 奠基於「心智理論」的AI代理人
      • | 多代理人AI模型
  • 第6章 AI代理人和社會
    • 6-1 AI代理人的自律性
      • | 何謂自律性
      • | 大型語言模型的自律性
      • | 封閉的世界
    • 6-2 AI代理人的社會性
      • | 不負責任的AI
      • | 猶如外星人的AI
      • | 人類眼中的「外界」
    • 6-3 嶄新的資訊生態系
      • | 社會化的AI代理人
      • | 惡劣的AI代理人
      • | 人類與AI共生
  • 結語
  • 謝辭

評分與評論

請登入後再留言與評分
幫助
您好,請問需要甚麼幫助呢?
使用指南

客服專線:0800-000-747

服務時間:週一至週五 AM 09:00~PM 06:00

loading