一個600萬美元的人工智能項目剛剛將 ChatGPT 從 iPhone 應用第一名的寶座上拉下來,並導致 NVIDIA 市值損失 4000 億美元。 DeepSeek 是一個令人印象深刻的聊天機器人,在全球引起了轟動。如果您好奇並想測試它,PockectPal AI 可以讓您在 Android 和 iOS 上本地運行各種 LLM,包括 Deepseek AI。此外,我們還會檢查在 Windows、Linux 或 macOS 計算機上安裝 DeepSeek R1 的簡單方法。
DeepSeek 通過完全離線運行而從其他人工智能工具中脫穎而出。這意味著您的數據保持私密,並且您可以獲得更快的響應。在本地運行 DeepSeek AI 允許您個性化和控制您的 AI 體驗,而無需依賴基於雲的伺服器.無論您使用的是 Android 設備、iOS、Windows 還是 macOS,設置 DeepSeek AI 都可以簡單方便。讓我們深入了解每個平台的分步指南。
DeepSeek AI 於 2023 年推出,是一款開源人工智能工具,可處理從代碼完成到文檔生成的所有事務。該公司以不到 600 萬美元的成本構建了這個強大的人工智能模型,這比在類似技術上投資數億美元的競爭對手便宜得多。
DeepSeek 模型在各種測試中顯示出令人印象深刻的結果。他們在性能測試中獲得了 5.5 分(滿分 6 分),擊敗了 OpenAI 的 o1 模型和 ChatGPT-4o。這些結果帶來了低得多的運行成本。
DeepSeek 的技術突破使其高效:
- 推理時間計算擴展根據任務複雜性改變工作量
- 承載策略通過動態變化阻止專家過載
- PTX編程優化更好地運行GPU指令
該模型以特殊方式處理不同的任務:
- 即時更新和強大的對話界面
- 高級推理能力
- 對技術任務和編碼的強有力支持
- 快速多語言處理
DeepSeek-R1 等較大模型最適合基於 GPU 的實例(例如 ml.p5e.48xlarge)。不同的模型可以處理不同數量的文本,DeepSeek V3 最多可處理 66,000 個標記。
主要特點
DeepSeek 卓越的功能和可用性使其與眾不同。該平台擁有參數從1.5B到70B的型號版本,用戶可以根據自己的計算需求進行選擇。 DeepSeek 脫穎而出的原因如下:
- 高級推理和解決問題的能力
- 代碼完成和調試幫助
- 文檔生成和處理
- 為技術和非技術用戶提供友好的用戶界面
- 完整的離線功能
- 無訂閱費或隱藏費用
DeepSeek 在消費類硬件上運行流暢,與其他人工智能模型相比,需要最少的基礎設施。該平台在現代 GPU 上運行良好,因為它針對本地部署進行了優化,非常適合擁有標準高性能硬件的用戶。
本地安裝的隱私優勢
在本地運行 DeepSeek 可為您帶來巨大的隱私優勢。您的設備或服務器負責所有數據處理,因此您無需將敏感信息發送到外部服務器。運行 DeepSeek 的本地服務器可以完全保護您的數據,具有以下主要優勢:
- 初始設置後降低運營成本
- 您保留對配置和更新的控制權
- 更好的數據安全性,無外部暴露
- 由於本地處理而減少了延遲
- 可定制的硬件優化
選擇正確的 DeepSeek 模型在本地運行
DeepSeek R1 提供從 1.5B 到 70B 的多種 LLM 模型。要在 PC、Mac 或 Linux 系統上本地運行 DeepSeek R1,您的計算機至少需要 8GB RAM。這足以高效運行較小的 DeepSeek R1 1.5B 模型,實現每秒約 13 個令牌的輸出速度。
對於智能手機,建議至少有6GB內存才能流暢運行DeepSeek R1模型。請記住,智能手機必須為操作系統、其他應用程序和 GPU 分配 RAM,因此需要至少 50% 的緩衝區,以避免將模型移至交換空間而減慢手機速度。
DeepSeek 提供了多個模型版本,每個版本都是為了最適合特定任務和計算能力而構建的。它的主要模型使用具有 6710 億個參數的混合專家(MoE)系統,但每個任務只使用 370 億個參數。這種最先進的方法可以幫助我們更好地利用資源,而不會失去任何力量。
蒸餾模型變體包括:
- DeepSeek R1-Distill-Qwen 參數範圍從 1.5B 到 32B
- DeepSeek R1-Distill-Llama 提供 8B 和 70B 配置
模型大小會影響您需要的存儲量。 1.5B型號佔用約2.3GB存儲空間,而70B型號則需要超過40GB。這些選項適用於從個人計算機到企業服務器的所有類型的硬件。
每個 DeepSeek 版本都需要特定的硬件才能最佳運行。以下是不同型號尺寸的需求:
| 型號變體 | 顯存要求 | 推薦GPU |
|---|---|---|
| R1-蒸餾-Qwen-1.5B | 0.7GB | RTX 3060 8GB |
| R1-蒸餾-Qwen-7B | 3.3GB | RTX 3070 10GB |
| R1-蒸餾-Llama-8B | 3.7GB | RTX 3070 10GB |
| R1-蒸餾-Qwen-14B | 6.5GB | RTX 3080 12GB |
| R1-蒸餾-Qwen-32B | 14.9GB | RTX 4090 24GB |
| R1-蒸餾-Llama-70B | 32.7GB | RTX 4090 24GB (x2) |
在 Android 和 iOS 上本地安裝 DeepSeek
本地安裝選項非常適合特定情況或擁有正確硬件的精通技術的用戶。大多數 Android 用戶會發現 Play 商店版本最穩定且最易於使用。官方方法和替代方法各有優點,具體取決於您的設備的功能和優先級。
官方應用程序在傳輸過程中對您的數據進行加密,並提供完整的功能,使交互更加快捷。 DeepSeek AI Assistant 應用程序來自或者應用商店為您提供具有超過 600B 參數的 DeepSeek-V3 模型的不間斷體驗。該應用程序在現代 Android 設備上運行效果最佳,您只需要 Android 5.0 或更高版本即可流暢運行。
作為中國人,DeepSeek 將用戶數據報告回中國,這可能會給大多數用戶帶來嚴重的隱私問題。幸運的是,Private AI、PocketPal AI、Llamao 和 LM Playground 等應用程序可讓您在 Android 設備和 iPhone 上本地運行本地 AI 模型。在本指南中,我們將使用 PocketPal AI 在 Android 和 iOS 上運行 DeepSeek R1。
- 在手機上下載並安裝 PocketPal AI 應用程序。
- 打開應用程序並點擊前往模型選項在底部。
- 然後點擊 '+' 圖標並選擇添加來自擁抱的臉。
- 現在,您將擁有可供本地下載的所有 AI LLM 的大列表。點擊搜尋框並輸入 DeepSeek。尋找適合您手機硬件的 DeepSeek R1 LLM 並下載。就我而言,我下載了 Bartowski 的“DeepSeek-R1-Distill-Qwen-1.5B”。
- 下載完成後,返回PocketPal主屏幕,選擇前往模型,然後點擊載入選項。
- 就是這樣!您已準備好與 DeepSeek AI 聊天並收到快速回复。
在計算機上本地運行 DeepSeek AI
DeepSeek AI 通過多種安裝方法在 Windows 上運行。您的硬件功能和特定需求將決定最佳路徑。以下是您需要了解的要求以及安裝方法。
在 Windows 上使用 LM Studio。 Mac 和 Linux
LM Studio 允許您離線運行不同的 DeepSeek 模型。該工具自動管理資源分配和模型加載。如果您想要簡單的設置過程,這將是完美的選擇。
- 下載LM工作室適用於 Windows、Mac 或 Linux,請從官方網站獲取。
- 按照屏幕提示安裝軟件。
- 單擊搜索/發現圖標,然後選擇最適合您計算機硬件配置的型號。我選擇了 DeepSeek R1 Distill (Llama 8B)。
- 單擊下載按鈕。
- 等待下載完成,然後單擊載入選項。
- 現在您可以在本地或離線與 DeepSeek AI 聊天。
在 Windows/Mac/Linux 上使用 Ollama
Ollama 為您提供了另一種可靠的方式來在本地運行 Llama 3.3、DeepSeek-R1、Phi-4、Mistral、Gemma 2 和其他模型。請按照以下步驟安裝 DeepSeek。
- 下載最新的奧拉馬設置來自官方網站。
- 下載 Ollama 安裝文件後,雙擊進行安裝。
- 安裝完成後,Ollama 將啟動終端窗口。
- 要下載LLM(當前場景中為DeepSeek R1),請根據要安裝的計算機內存執行以下命令之一1.5B、7B、8B、14B、32B 或 70B模型。如果硬件有限,1.5B 參數模型可以在大多數係統上運行良好。硬件規格較好的用戶可以選擇更大的型號,最高可達70B參數。
ollama run deepseek-r1:1.5b
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b
ollama run deepseek-r1:14b
ollama run deepseek-r1:32b
ollama run deepseek-r1:7b
- 等待下載完成。您現在可以通過在“後輸入您的查詢來與 DeepSeek 聊天”發送消息' 迅速的。
- 請注意,Ollama 沒有 GUI。要下次與 DeepSeek 或語言模型聊天,請在命令窗口中運行以下命令。
ollama run deepseek-r1:8b
現在您知道如何使用 PocketPal AI、Ollama 和 LM Studio 等應用程序在本地運行 DeepSeek AI 和其他 LLM。如果您知道更好的應用程序可以離線利用人工智能的力量,請告訴我們。
常見問題解答
Q1.本地運行 DeepSeek AI 有哪些系統要求?
要求因模型大小而異,但通常,您至少需要 8GB RAM、10GB 可用存儲空間和現代 GPU。為了獲得較大模型的最佳性能,建議使用 32GB RAM 和具有 16GB VRAM 的 NVIDIA GPU。
Q2。我可以在移動設備上離線使用 DeepSeek AI 嗎?
是的,您可以通過本地安裝方式在移動設備上離線使用 DeepSeek AI。然而,與基於雲的官方應用程序相比,這需要更多的存儲空間和處理能力。 App Store 或 Play Store 中的官方應用程序通常需要互聯網連接才能實現最佳功能。
Q3。 DeepSeek AI 與其他 AI 模型在性能和成本方面相比如何?
DeepSeek AI 表現出了令人印象深刻的性能,在基準測試中得分為 5.5 分(滿分 6 分),超越了一些競爭對手。它以顯著降低的成本取得了這些成果,開發費用僅為 560 萬美元,而其他公司類似項目的開發費用為 80-1 億美元。
Q4。本地安裝 DeepSeek AI 有哪些隱私優勢?
在本地安裝 DeepSeek AI 可增強數據隱私,因為所有處理都在您的設備或服務器上進行。這樣就無需將敏感信息發送到外部服務器,提供對配置和更新的完全控制,並有助於遵守嚴格的數據保護法規。
Q5.如何選擇適合我的需求的 DeepSeek 模型?
選擇正確的 DeepSeek 模型取決於您的硬件功能和性能要求。型號範圍從1.5B到70B參數,對應的VRAM要求從0.7GB到32.7GB。選擇模型時,請考慮可用的 GPU、存儲空間以及計劃執行的任務的複雜性。
