【初次】
第一次的課程開在11月,深深覺得講師 ihower 對於 LLM 真是是有「愛」。對於 LLM 各種不同的技巧,從初級入門的串接 API,到 prompt 技巧、CoT,然後 RAG 等,通通都有涉獵。非資訊本科生的我,如同劉姥姥進大觀園般,看著 ihower 快速講解每個 colab 程式。
說起來慚愧,11月後我自己在 LLM 的接觸面向減少許多,追了大半年的 AI 潮流,東碰一點、西碰一小塊,到最後真的累了,只想要躺平。
離上次的課程才隔四個月,謝謝主辦單位主動在課程群組歡迎大家「回訓」。
回訓,或許是重新讓自己再檢視看看,對於 LLM 這塊領域,哪些層面是自己有興趣的。
跟第一次上課的感想一樣,短短三堂加起來8小時的課,知識量真的很大。
三堂課,知識架構是一層層推上去的,也代表難度也是推疊上去的。
第一堂的重點放在 API的串接、prompt 基本知識(zero-shot, few-shot, CoT)。
第二堂的重點有 Chaining prompt , Embedding 和 RAG(檢索增強生成)
第三堂的重點是 Agent 及 functional calling。
非本科生的我,其實在第二堂的 RAG 開始,腦袋運轉就開始打結了,哈。
【回訓】
三堂課,知識架構是一層層推上去的,也代表難度也是推疊上去的。
第一堂的重點放在 API的串接、prompt 基本知識(zero-shot, few-shot, CoT)。
第二堂的重點有 Chaining prompt , Embedding 和 RAG(檢索增強生成)
第三堂的重點是 Agent 及 functional calling。
非本科生的我,其實在第二堂的 RAG 開始,腦袋運轉就開始打結了,哈。