WFU

2024/07/01

【測試 Video 轉文章GAI】Open Challenges for AI Engineering - Simon Willison

 

AI Engineer World's Fair 2024

主題: Open Challenges for AI Engineering
演講者: Simon Willison

iHower 字幕/重點整理版: 連結

Youtube url: https://www.youtube.com/watch?v=5zE2sMka620
時間範圍: 00:33 - 00: 53

---以下是 GAI 自動轉的文章內容---

Open Challenges for AI Engineering

人工智能領域正面臨一個重大轉折點。在GPT-4模型獨占鰲頭長達一年之後,AI產業迎來了新的競爭格局。Simon Willison在這段影片中探討了GPT-4級別模型的普及化,以及這一現象對AI行業和社會的深遠影響。隨著Claude 3.5 Sonnet和Gemini 1.5 Pro等新模型的出現,以及開源模型如Llama 2的快速進步,AI技術的發展正進入一個令人振奮的新階段。

GPT-4 門檻的突破

GPT-4自2023年3月發布以來,在人工智能領域獨占鰲頭長達12個月。然而,近期情況發生了顯著變化。多家公司相繼推出了能夠媲美甚至超越GPT-4能力的模型,如Claude 3.5 Sonnet和Gemini 1.5 Pro等。這些模型不僅在性能上與GPT-4不相上下,在價格方面也相當具有競爭力。值得注意的是,開源模型如Llama 2也在逐步接近GPT-4的水平。這種競爭格局的轉變為AI行業注入了新的活力,不僅促進了技術的快速進步,也為用戶提供了更多優質且經濟實惠的選擇。隨著GPT-4級別的模型逐漸成為市場常態,我們可以預期未來這些高級AI模型將變得更快、更便宜,並在更廣泛的領域中得到應用。


圖:多家科技公司的標誌圍繞著GPT-4模型,象徵AI市場競爭格局的變化和高級語言模型的普及化趨勢。

人工智能工具應用的挑戰

人工智慧工具如ChatGPT雖然看似簡單易用,實際上要有效運用卻相當具有挑戰性。以PDF文件為例,使用ChatGPT處理PDF時涉及諸多複雜因素。首先,PDF必須是可搜索的文字格式,而非掃描圖像。其次,PDF的長度會影響處理方式,短文件會直接貼入提示中,長文件則需要進行某種搜索。此外,PDF中的表格和圖表往往無法被正確處理,需要另外截圖上傳。甚至有時ChatGPT會調用代碼解釋器來處理PDF,使用fpdf或pdf2image等模組。這些細節和限制並非顯而易見,需要使用者具備深入的理解和經驗。因此,像ChatGPT這樣的AI工具實際上是面向專業用戶的強大工具,需要長期實踐才能充分發揮其潛力。


圖:專業人士在電腦前使用ChatGPT,旁邊放著Excel教學書籍,象徵AI工具需要深入學習才能充分應用。

人工智能可信度危機

近期人工智慧產業面臨了一場信任危機,主要源於用戶對企業如何使用其數據的誤解。以Dropbox和Slack為例,兩家公司在推出新的AI功能時,引發了用戶對隱私數據被用於訓練AI模型的擔憂。然而,事實上這些公司並未直接使用用戶數據訓練模型,而是將數據傳送給OpenAI,並有嚴格的協議確保數據不會被用於模型訓練。這種誤解凸顯了企業在溝通AI數據使用政策時的重要性。Anthropic公司在推出Claude 3.5 Sonnet模型時,明確聲明未使用任何用戶提交的數據進行訓練,證明了高品質模型可以在不依賴用戶數據的情況下開發。然而,AI公司仍面臨著使用網路爬蟲數據的爭議,這進一步加劇了公眾對AI數據使用的擔憂。解決這一信任危機將是AI產業面臨的重大挑戰。


圖:企業標誌與數據流圖交織,突顯AI公司數據使用政策的透明度挑戰及用戶信任危機。

提示注入與人工智能安全

提示注入漏洞是人工智慧安全領域的一個重要問題,需要開發者和使用者深入理解。一個典型的例子是「Markdown 圖片洩露漏洞」。這種漏洞存在於能夠渲染 Markdown 圖片的聊天機器人中,特別是那些同時有權訪問私密數據的機器人。攻擊者可以通過巧妙構造的 Markdown 圖片鏈接,誘使機器人將敏感信息洩露到攻擊者的服務器。令人驚訝的是,包括 ChatGPT、Google Writer、Amazon Q 等在內的六個知名團隊都曾犯下這個錯誤。這凸顯了理解提示注入的重要性,以避免類似的安全漏洞。除了安全問題,提示注入有時也會導致有趣的錯誤,比如一個 RAG 應用誤將自身識別為「機智的沙鼠」。這些案例說明了大型語言模型的易受影響性,它們會相信被告知的任何信息,這既是優點也是缺點。


圖:一隻戴眼鏡的卡通沙鼠,手持「我是機智的AI助手」標語,展示提示注入的幽默一面。

人工智能生成內容的質量問題

人工智慧生成的「垃圾內容」已成為一個日益嚴重的問題。這種內容通常指未經請求且未經審核的AI生成文字,大量充斥於網路空間。這種做法不僅降低了整體內容質量,更嚴重的是,它削弱了人類對發布內容的責任感。在資訊傳播中,人類的問責制至關重要,我們需要確保每一篇文章、每一則報導背後都有真實的人為其負責。然而,當大量未經審核的AI生成內容被發布時,這種責任制度就會受到威脅。直接發布AI生成的內容而不經過人工審核,可能導致錯誤信息的傳播、版權問題,甚至可能產生有害或具有誤導性的內容,對社會造成負面影響。因此,在利用AI技術生成內容時,人工審核和編輯仍然是不可或缺的環節。


圖:垃圾桶中溢出的紙張,象徵大量AI生成的低質量內容充斥網路,強調人工審核的重要性。

總結

本影片深入探討了AI領域的最新發展,特別是GPT-4壟斷地位的終結及其影響。隨著多家公司推出媲美甚至超越GPT-4的模型,AI技術正進入競爭更加激烈的新時代。然而,影片也提醒我們需要警惕AI工具使用的複雜性、信任危機、安全漏洞以及AI生成內容的質量問題。這些挑戰凸顯了在AI快速發展中,我們必須謹慎應對,確保技術進步與責任使用並重。