-
RAG Llama3 8B with RTX 3050
測試 Wsxqaza12 所分享的 RAG 方案,使用 lmstudio-community/Meta-Llama-3-8B-Instruct-GGUF 建構 RAG Llama3 8B 的系統。 (模型經Q4量化) Reference by: https://github.com/wsxqaza12/RAG_example Read more
-
RAG Llama2 7B with RTX 3050
測試 Vardhanam 所分享的 RAG 方案,使用 mistralai/Mistral-7B-Instruct-v0.2 建構 RAG Llama2 7B 的系統。 (模型尚未量化) Reference by: https://github.com/vardhanam/enterprise_chatbot_qdrant/tree/main Read more
-
2024 註冊日本Apple ID
經測試 確認能直接用台灣的手機門號,搭配日本當地地址(用飯店地址)和日文姓名(日文平假名),不需要設定付費信用卡,便能註冊日本Apple ID ,並以此下載日本限定App。 2025年有再度測試並附上詳細操作方式 Read more
-
什麼是RAG 生成式AI應用
RAG,全稱為檢索增強生成(Retrieval-Augmented Generation),是一種結合了資訊檢索和文本生成的技術。它允許大型語言模型(LLM)從外部資料源獲取並整合資訊,以提供更準確、更具權威性和可靠性的答案。 簡單來說,RAG技術在生成回答之前,會先從一個外部的資料庫中檢索相關資料,然後將這些資料與用戶的提示詞一起提供給LLM,作為生成回答的參考。這種方法類似於開書考試,模型不是僅依靠記憶(即模型微調的知識)來回答問題,而是可以查閱相關資料來提供答案。 RAG的優勢在於它可以解決大型語言模型在實際應用時可能出現的幻想(hallucination)問題,即生成的信息可能不準確或過時。通過檢索最新的資料,RAG能夠提高回答的正確性,並且因為它是在生成回答時才去搜尋資料,所以成本低、靈活度高、還有助於保護資料隱私和安全,因為資料庫本身具有權限管理功能,企業可以限制敏感資料的授權,從而避免大型語言模型意外泄露機密資料。 工作原理 假設使用一個問答系統來尋找關於「台灣的首都」的資訊。在這個例子中,RAG技術會這樣運作: 通過這種方式,RAG技術能夠幫助系統利用最新的資料來生成更準確、更有用的回答。這種技術特別適合那些需要處理大量資料和需要即時更新資訊的應用場景。 這個例子展示了RAG如何結合檢索和生成兩個階段來提高問答系統的性能。它不僅提高了回答的準確性,還提供了一種靈活且成本效益高的方式來處理各種複雜的查詢。 Read more
-
2024/04/30 一早各家媒體餵養的新聞(無帳號登入的Edge首頁)
以首頁動態輪播前10則內容組成來看,不是新聞、綜藝花邊新聞或是廣告新聞佔多數,不然就是標題引人注目的社會新聞,而實際與生活相關的只有2則… Read more
-
Llama 3 本機運行速度測試 with RTX 3050 and AMD 5600G
註:測試的模型有經過量化以提高回應速度。 Read more
-
在自己的電腦上快速離線使用最新的 Llama3 大語言模型 – LM Studio
基本上只要直接下載安裝,然後在程式主頁照著提示窗下載模型即可與其對話了 https://lmstudio.ai Read more
Welcome to my blog!
I’m Amy, a minimalist and simple living enthusiast who has dedicated her life to living with less and finding joy in the simple things. Through this blog, I aim to share my expertise, insights, and experiences. Join me on this journey as we explore the world of slow, purposeful living together!
Find us on:
Join the fun!
Stay updated with our latest recipes and other news by joining our newsletter.
