圖片來源:VentureBeat 用 Midjourney 製作
人工智慧編碼革命有一個問題:成本高昂。
Claude Code 是 Anthropic 的基於終端的人工智慧代理,可以自主編寫、調試和部署程式碼,吸引了全世界軟體開發人員的想像。但它的定價——根據使用情況從每月 20 美元到 200 美元不等——在它所服務的程式設計師中引發了日益強烈的反抗。
現在,一個免費的替代方案正在獲得關注。 Goose 是由 Block(金融科技公司,前身為 Square)開發的開源 AI 代理,提供與 Claude Code 幾乎相同的功能,但完全在用戶的本機電腦上運行。沒有訂閱費用。沒有雲端依賴。沒有每五個小時重置一次的速率限制。
「你的數據會一直伴隨著你,就這樣,」在最近的直播中演示該工具的軟體工程師 Parth Sareen 說道。該評論抓住了核心吸引力:Goose 使開發人員能夠完全控制其人工智慧驅動的工作流程,包括離線工作的能力 - 即使在飛機上也是如此。
此專案人氣爆棚。自推出以來,Goose 目前在程式碼共享平台 GitHub 上擁有超過 26,100 顆星,共有 362 名貢獻者和 102 個版本。最新版本 1.20.1 於 2026 年 1 月 19 日發布,反映了可與商業產品相媲美的開發速度。
對於因 Claude Code 的定價結構和使用上限而感到沮喪的開發人員來說,Goose 代表了人工智慧行業中越來越罕見的東西:一個真正免費、不附加任何條件的嚴肅工作選擇。
Anthropic 的新速率限制引發了開發人員的反抗
要了解 Goose 為何重要,您需要了解 Claude Code 定價爭議。
Anthropic 是一家由前 OpenAI 高管創立的舊金山人工智慧公司,提供 Claude Code 作為其訂閱套餐的一部分。免費方案不提供任何存取權限。 ThePro 計劃的價格為每月 17 美元(按年計費)(或每月 20 美元),限制用戶每五個小時只能收到 10 到 40 次提示,認真的開發人員在幾分鐘的緊張工作中就會耗盡這一限制。
TheMax 計劃的價格為每月 100 美元和 200 美元,提供更多的空間:分別為 50 至 200 個提示和 200 至 800 個提示,此外還可以使用 Anthropic 最強大的模型 Claude 4.5 Opus。但即使是這些高階等級也有一些限制,這激怒了開發者社群。
7 月底,Anthropic 宣布了新的每週利率限制。在該系統下,Pro 使用者每週可使用 Sonnet 4 40 至 80 小時。 200 美元等級的 Max 用戶可以獲得 240 到 480 小時的 Sonnet 4,加上 24 到 40 小時的 Opus 4。近五個月後,挫敗感並沒有消退。
問題?這些「時間」不是實際時間。它們代表基於令牌的限制,這些限制根據程式碼庫大小、會話長度和正在處理的程式碼的複雜性而有很大差異。獨立分析表明,Pro 用戶的實際每次會話限制約為 44,000 個代幣,200 美元 Max 計劃的實際每次會話限制為 220,000 個代幣。
「這令人困惑和模糊,」一位開發人員在廣泛分享的分析中寫道。 「當他們說『Opus 4 的 24-40 小時』時,這並不能真正告訴你任何關於你實際得到的東西的有用信息。」
Reddit 和開發者論壇上的強烈反對非常激烈。一些用戶報告在密集編碼後 30 分鐘內就達到了每日限制。其他人則完全取消了訂閱,稱新限制是“一個笑話”並且“無法用於實際工作”。
Anthropic 為這些變化進行了辯護,稱這些限制僅影響不到 5% 的用戶,並且目標人群「24/7 持續在後台」運行 Claude Code。但該公司尚未澄清這個數字是指 Max 用戶的 5% 還是所有用戶的 5%——這一區別非常重要。
Block 如何建立一個可以離線工作的免費 AI 編碼代理
Goose 對同一問題採取了截然不同的方法。
Goose 由 Jack Dorsey 領導的支付公司 Block 打造,被工程師稱為「機上人工智慧代理」。與 Claude Code 將您的查詢傳送到 Anthropic 的伺服器進行處理不同,Goose 可以使用您自己下載和控制的開源語言模型完全在您的本機電腦上執行。
該專案的文檔將其描述為“超越程式碼建議”,“使用任何 LLM 進行安裝、執行、編輯和測試”。最後一句話——「任何法學碩士」——是關鍵的區別因素。 Goose 在設計上與模型無關。
如果您有 API 存取權限,您可以將 Goose 連接到 Anthropic 的 Claude 模型。您可以使用 OpenAI 的 GPT-5 或 Google 的 Gemini。您可以透過GroqorOpenRouter 等服務來路由它。或者 - 這就是事情變得有趣的地方 - 您可以使用 Ollama 等工具完全在本地運行它,它可以讓您在自己的硬體上下載並執行開源模型。
實際意義重大。透過本地設置,沒有訂閱費,沒有使用上限,沒有速率限制,並且不用擔心您的程式碼被發送到外部伺服器。你與人工智慧的對話永遠不會離開你的機器。
「我一直在飛機上使用 Ollama - 這很有趣!」Sareen 在演示中指出,強調本地模型如何使開發人員擺脫互聯網連接的限制。
Goose 可以做傳統程式碼助理做不到的事情
Goose 作為命令列工具或桌面應用程式運行,可以自主執行複雜的開發任務。它可以從頭開始建立整個專案、編寫和執行程式碼、調試故障、跨多個文件編排工作流程以及與外部 API 互動 - 所有這些都無需持續的人工監督。
該架構依賴人工智慧產業所謂的「工具呼叫」或「函數呼叫」——語言模型向外部系統請求特定操作的能力。當您要求 Goose 建立新檔案、執行測試套件或檢查 GitHub 拉取請求的狀態時,它不僅僅產生描述應該發生的情況的文字。它實際上執行這些操作。
這種能力在很大程度上取決於底層語言模型。根據伯克利函數呼叫排行榜,Anthropic 的 Claude 4 模型目前在工具呼叫方面表現最佳,該排行榜根據模型將自然語言請求轉換為可執行程式碼和系統命令的能力對模型進行排名。
但較新的開源模型正在迅速迎頭趕上。 Goose 的文檔重點介紹了幾個具有強大工具呼叫支援的選項:Meta 的 Llama 系列、阿里巴巴的 Qwen 模型、Google 的 Gemma 變體和 DeepSeek 的推理型架構。
該工具還與模型上下文協定(MCP)集成,這是一種用於將人工智慧代理連接到外部服務的新興標準。透過 MCP,Goose 可以存取資料庫、搜尋引擎、檔案系統和第三方 API,其功能遠遠超出了基本語言模型提供的功能。
使用本地模型設定 Goose
對於對完全免費、保護隱私的設定感興趣的開發人員來說,該過程涉及三個主要元件:Goose 本身、Ollama(本地運行開源模型的工具)和相容的語言模型。
第1步:安裝Ollama
Ollama 是一個開源項目,它極大地簡化了在個人硬體上運行大型語言模型的過程。它透過一個簡單的介面處理下載、最佳化和服務模型的複雜工作。
從ollama.com 下載並安裝Ollama。安裝後,您可以使用單一命令拉取模型。對於編碼任務,Qwen 2.5提供了強大的工具呼叫支援:
ollama 運行 qwen2.5
該模型會自動下載並開始在您的電腦上運行。
第 2 步:安裝 Goose
Goose 可用作桌面應用程式和命令列介面。桌面版本提供了更直觀的體驗,而 CLI 則吸引了那些喜歡完全在終端機中工作的開發人員。
安裝說明因作業系統而異,但通常涉及從 Goose 的 GitHub 版本頁面下載或使用套件管理器。 Block 為 macOS(Intel 和 Apple Silicon)、Windows 和 Linux 提供預先建置的二進位。
步驟 3:設定連線
在 Goose Desktop 中,導覽至設置,然後設定提供者,並選擇 Ollama。確認 API 主機設定為 http://localhost:11434(Ollama 的預設連接埠),然後按一下提交。
對於命令列版本,執行 goose configure,選擇“設定提供者”,選擇 Ollama,然後在出現提示時輸入型號名稱。
就是這樣。 Goose 現在已連接到完全在您的硬體上運行的語言模型,準備執行複雜的編碼任務,無需任何訂閱費用或外部相依性。
您應該了解的 RAM、處理能力和權衡
顯而易見的問題:您需要什麼樣的電腦?
在本地運行大型語言模型比典型軟體需要更多的運算資源。關鍵限制是記憶體——具體來說,大多數系統上的 RAM 或 VRAM(如果使用專用顯示卡進行加速)。
Block 的文檔表明,32 GB 的 RAM 為「更大的模型和輸出提供了堅實的基礎」。對於 Mac 用戶來說,這意味著電腦的統一記憶體是主要瓶頸。對於配備獨立 NVIDIA 顯示卡的 Windows 和 Linux 用戶來說,GPU 記憶體 (VRAM) 對於加速而言更為重要。
但您不一定需要昂貴的硬體才能開始。參數較少的較小模型可以在較普通的系統上運行。例如,Qwen 2.5 有多種尺寸,較小的變體可以在具有 16 GB RAM 的機器上有效運作。
“你不需要運行最大的模型來獲得出色的結果,”Sareen 強調。實際建議:從較小的模型開始測試您的工作流程,然後根據需要進行擴充。
就上下文而言,具有 8 GB RAM 的 Apple 入門級 MacBook Air 將難以應對最強大的編碼模型。但 32 GB 的 MacBook Pro(在專業開發人員中越來越常見)可以輕鬆處理它們。
為什麼讓程式碼遠離雲端比以往任何時候都更重要
擁有當地法學碩士學位的 Goose 並不能完美取代 Claude Code。這種比較涉及開發人員應該理解的實際權衡。
模型品質:Anthropic 的旗艦模型 Claude 4.5 Opus 仍然可以說是最適合軟體工程任務的人工智慧。它擅長理解複雜的程式碼庫、遵循細緻的指令,並在第一次嘗試時產生高品質的程式碼。開源模型已經有了顯著改進,但差距仍然存在——特別是對於最具挑戰性的任務。
一位改用 200 美元 Claude Code 計劃的開發人員直言不諱地描述了其中的差異:“當我說‘讓這個看起來現代’時,Opus 知道我的意思。大約 2015 年,其他型號給了我 Bootstrap。”
預設情況下,大多數本地模型僅限於 4,096 或 8,192 個令牌,儘管許多模型可以配置為更長的上下文,但代價是增加記憶體使用量和處理速度變慢。
速度:Claude Code 等基於雲端的服務在針對 AI 推理進行最佳化的專用伺服器硬體上運行。在消費者筆記型電腦上運行的本地模型通常處理請求的速度較慢。對於需要快速更改並等待人工智慧回饋的迭代工作流程來說,這種差異很重要。
工具成熟度:Claude Code 受益於 Anthropic 的專用工程資源。諸如提示快取(對於重複上下文可以降低高達 90% 的成本)和結構化輸出等功能都得到了完善和詳細記錄。 Goose 雖然積極開發,迄今為止已發布 102 個版本,但依賴社區貢獻,並且可能在特定領域缺乏同等的改進。
Goose 如何與 Cursor、GitHub Copilot 和付費 AI 編碼市場抗衡
Goose 進入了擁擠的人工智慧編碼工具市場,但佔據了獨特的地位。
Cursor 是一款受歡迎的 AI 增強型程式碼編輯器,其 Pro 版每月收費 20 美元,Ultra 版每月收費 200 美元,定價與 Claude Code 的 Max 計劃一致。 Cursor 每月在 Ultra 層級提供約 4,500 個 Sonnet 4 請求,這是一種與 Claude Code 每小時重置截然不同的分配模型。
Cline、Roo Code 和類似的開源專案提供人工智慧編碼協助,但具有不同程度的自主性和工具整合。許多人專注於程式碼完成,而不是定義 Goose 和 Claude Code 的代理任務執行。
Amazon 的 CodeWhisperer、GitHub Copilot 以及主要雲端供應商的企業產品針對的是具有複雜採購流程和專用預算的大型組織。它們與尋求輕量級、靈活工具的個人開發人員和小團隊不太相關。
Goose 將真正的自治、模型不可知論、本地運營和零成本相結合,創造了獨特的價值主張。該工具並不試圖在拋光或模型品質方面與商業產品競爭。它正在爭奪自由——無論是金融自由還是建築自由。
AI 編碼工具每月 200 美元的時代可能即將結束
人工智慧編碼工具市場正在快速發展。開源模型的改進速度不斷縮小與專有替代方案的差距。 Moonshot AI 的Kimi K2 和z.ai 的GLM 4.5 現在的基準測試接近Claude Sonnet 4 級別,而且它們都是免費提供的。
如果這種趨勢繼續下去,克勞德·科德高價的品質優勢可能會被削弱。 Anthropic 將面臨在功能、使用者體驗和整合方面競爭的壓力,而不是在原始模型能力方面的競爭。
目前,開發商面臨一個明確的選擇。那些需要絕對最佳模型品質、能夠負擔得起溢價以及接受使用限制的人可能會更喜歡克勞德·代碼。那些優先考慮成本、隱私、離線存取和靈活性的人可以在 Goose 中找到真正的選擇。
每月 200 美元的商業產品擁有一個具有可比較核心功能的零美元開源競爭對手,這一事實本身就很了不起。它既反映了開源人工智慧基礎設施的成熟,也反映了開發人員對尊重其自主權的工具的興趣。
鵝並不完美。與商業替代品相比,它需要更多的技術設定。這取決於並非每個開發人員都擁有的硬體資源。其模型選項雖然改進迅速,但仍落後於複雜任務上最好的專有產品。
但對於不斷壯大的開發者社群來說,這些限制是可以接受的,但為了換取人工智慧領域中越來越罕見的東西:真正屬於他們的工具。
Goose 可在 github.com/block/goose 下載。 Ollama 可在 atollama.com 上找到。這兩個項目都是免費且開源的。