CanIRun.ai 測試電腦硬體能否跑動 AI 模型,視覺化分級一目了然

CanIRun.ai

本文重點:CanIRun.ai 透過 WebGPU 技術自動偵測硬體,以 S 至 F 視覺化分級評估電腦運行開源模型的效果。這款工具免安裝且注重隱私,協助使用者快速找出適合本地環境的 AI 模型。

今天要介紹的「CanIRun.ai」是專為 AI 愛好者設計的線上工具,主要功能是檢測在自己的電腦上可以本地(Local)執行哪些開源模型(例如 Llama、Mistral 或 GPT-OSS),但能不能跑和運行是否流暢又是另外一回事,如果非專業使用者,面對密密麻麻的規格資訊可能很難搞清楚要看哪些項目?CanIRun.ai 能讓我們更快知道應該從哪些 AI 模型開始探索。

自動偵測硬體,隱私安全無虞

CanIRun.ai 以瀏覽器 WebGPU API 自動偵測硬體資訊,例如取得使用者的處理器、顯示卡(GPU)型號、顯卡記憶體(VRAM)、系統記憶體和網路頻寬等資訊,再從資料庫直接比對各大主流開源模型,即時計算出在使用者的硬體上能運行的預期表現,並以分級方式呈現。偵測流程都只會在瀏覽器端完成,不會有任何資訊被上傳到遠端伺服器。

CanIRun.ai 協助使用者建置離線運行的 AI 環境,確保對話內容不會經過雲端服務,提升使用者的隱私與安全性。

直觀視覺化分級評分

值得一提的是 CanIRun.ai 採用「視覺化分級」,以直觀的評分系統(如 S 到 F 等級)清楚顯示是「綽綽有餘」還是「勉強支撐」,也會針對每種大型語言模型提供更詳細的硬體規格要求、量化選項等資訊。

網站資訊

網站名稱:CanIRun.ai
網站鏈結:https://www.canirun.ai/

使用教學

操作步驟
自動偵測硬體規格與手動調整

開啟 CanIRun.ai 網站後上方就會帶入自動偵測到的硬體資訊,這是由現代瀏覽器提供的 API,讓網站獲取設備硬體的部分資訊,好處是不用透過指令列或安裝偵測軟體,操作上更簡單無痛。

硬體規格還是可以依照需求自訂,例如 GPU、VRAM、網路頻寬、記憶體和核心數。

CanIRun.ai

解讀模型運行等級與篩選功能

最上方有一排彩色的文字是「視覺化分級」功能,依照可用到無法使用分成六個等級,如下:

  • S 級至 B 級: 應該都能正常執行,產出內容時不會感到明顯延遲。
  • C 級至 E 級: 可能將硬體資源耗盡,生成內容速度極慢。

透過上方的篩選器可以直接列出包含前三個等級的 AI 模型,快速找出能正常使用的開源模型。

CanIRun.ai

此外,上方篩選器還能調整 AI 用途(聊天、程式碼、推理)、供應商(Google、OpenAI、Meta、微軟等)、授權方式和排序條件等,下方會列出模型名稱與標籤、模型體積與資源佔用、效能預估、運行等級和評分等資訊。

舉例來說,第一個「Llama 3.1 8B」代表該模型有 80 億個參數,「4.6 GB 57%」表示模型在預設量化版本下的檔案體積大小(57 % 是該模型會佔用你現有顯卡記憶體的比例),「tok/s」則是預估每秒能生成的字數(Tokens)。

CanIRun.ai

查看完整 Tier List 排名

從 CanIRun.ai 右上角切換到「Tier List」頁面,會將使用者的硬體資源對比所有 AI 模型並以排名等級列出,如同前面所述一樣是視覺化分級,預設會勾選 Only popular 僅列出熱門選項,如果要查看完整模型記得取消勾選,也能從上方調整硬體資源選項,例如 GPU、顯卡記憶體和網路頻寬。

CanIRun.ai

Compare Devices 裝置對比

另一項「Compare Devices」功能很好用,選擇兩台不同的裝置,對比它們在所有 AI 開源模型的運行等級,有助於未來在升級或是更換裝置時作為參考使用。

CanIRun.ai

深入模型細節與安裝指引

在 CanIRun.ai 有提供每一種開源模型的詳細資訊,包括模型名稱、開發商、參數規模、下載次數、釋出日期等,也能查看不同的量化版本所需要的 VRAM 大小、品質和評分狀態。

想要安裝特定的 AI 模型,頁面右側也有提供對應的資訊。

CanIRun.ai

若想要部署特定大型語言模型的運行環境,在 CanIRun.ai 就能調整不同的硬體規格,預先查看在這規格下能不能順暢使用該語言模型,不過整個建置過程還是會有一定程度的技術性。

Pseric

Pseric

「免費資源網」創辦人,自 2006 年起專注於網路資源、雲端服務與軟體評測,累積 20 年專業實測經驗。撰寫逾萬篇技術教學,內容受國內外主流科技媒體引用。致力於透過深度測試,為使用者篩選安全且高品質的數位工具。