🎯 News Taipei Times | phd | c | d |

用DeepSeek建個自己的AI Server

DeepSeek是Opence Source,而且把ChatGPT的4T知識蒸餾過一番,
壓縮得更小,我們何不設個獨立的Server自己建個DeepSeek AI來用用看。


(版貓2025/04/16) 關於AI agent
慧穩科技 報價 大語言模型平台『WinChat』 參考如下:

WinChat軟硬體方案
1.WinChat軟體 $600,000-
私有LLM WinChat軟體/永久授權
-LLM模型支援
(1) llama3.x 70B以下
(2) DeepSeek RI/V3 70B以下
(3)中英embedding model
(4)中英re-Ranking model
- RAG引擎
- Web UI介面
- 私有雲架構
- 管理員權限功能
- 支援檔案:Documcnts(PDF, DOCS)、Tables (XLSX)、Pictures (JPEG, JPG, PNG, TIP, GIF)
- 作業系統:Linux Ubuntu
- 系統服務:Docker
- Al對談API

2.電腦系統 $500,000
AITAS-TA703(2U Remote Workstation)
- Server Grade CPU: AMD 16C/32T 4.5G 64MB
- 32GB DDR5-4800 2Rx8 LP (10x4)ECC*4.
- 960GB NVMePCIe4x4 M.2 22x110mm*2..
- 1U 2000W 90-264Vac/47-63Hz.
- NVIDIA RTX4000 ADA Gen 20GBGDDR6*2..
- Storage HDD 1.9TB SATA 6Gb/s TLC 2.5"*2.

3―系統導人顧問服務 $100,000-
WinChat軟體導入顧問
- 8小時教學服務
- 40小時線上導入服務


備註:效能限制詳解
限制一:Apple GPU 無法啟用主流LLM推論加速
- 無CUDA->無法使用主流加速推論引擎(如vLLM, exllama, Triton)
- Metal加速尚未支援大型LLM推論(僅支援簡單模型轉譯)
限制二:缺乏獨立VRAM記憶體管理
- 70B模型效快速、穩定的VRAM管理
- Unified Memory是整體共用->記憶體thrashing導致頻繁緩衝、效能波動
限制三: 無多卡並行/模型切分能力
- 伺服器及GPU (如A100, H100, RTX 6000 ADA)可以切分模型、並行處理


▼1 報價內容說明

報價內容說明




2025/0317一 收到劉士豪line說: 那個我跟你說的MIRROR案子,我們學生學著做RAG跟MCP,公司有興趣嗎?做個潤滑油的AI AGENT之類的。
洪哲文回說: 有啊!很有興趣,怎樣進行?


參考資料
MEDIM: AIagent關於RAG Retrieval-Augmented Generation
20230919 關於RAG什麼是 Retrieval-Augmented Generation (RAG)?
關於MCP 什麼是MCP?讓AI成為真正的AI Agent,而不只是「說話」的機器傳統的 AI 助理(像 ChatGPT 或 Claude)擅長對話與文字生成,但它們最大的限制是無法直接存取使用者的電腦、資料庫或網路服務。
關於MCP 什麼是 MCP? 為什麼 MCP 這麼熱門? MCP 的好處在哪?
MCP是啥?技术原理是什么?一个视频搞懂MCP的一切。Windows系统配置MCP,Cursor,Cline 使用MCP

李宏毅台大電機工程學系教授【生成式AI時代下的機器學習(2025)】第二講:一堂課搞懂 AI Agent 的原理 (AI如何透過經驗調整行為、使用工具和做計劃)
Wiki:
🗒️RAG檢索增強生成 Retrieval-augmented generation
🗒️MCP模型上下文協定 Model Context Protocol

約好了2025/0325二中午來林口午餐談!


2025/02/17:
我想建一部Server然後下載DeepSeek安裝成自有的AI系統。請建議Server的規格應如何?還有OS用ubunt可以嗎?以及去那裡下載DeepSeek和如何安裝使用? Perplexity答:
▼2 其他資料

Others
  1. Lorem ipsum dolor sit amet.
  2. Lorem ipsum dolor sit amet.




| https://ppt.cc/fR65lx |