BazaarLinkBazaarLink
登入
文件API 參考SDK 參考Agent 應用Worker 網路暫停使用訂閱制暫停使用AI Skills

Worker Network

社群 Worker 網路 暫停使用

BazaarLink Worker 網路讓任何人都能貢獻算力 — 本機 GPU、家用伺服器或雲端 VM — 並透過服務推論請求賺取點數獎勵。社群模型與雲端模型並列於 API,定價低於標準費率。

🖥️
你執行 Ollama
Ollama 支援的任何模型都可以加入網路
🔌
Worker CLI 連接
bazaarlink-worker CLI 將你的 Ollama 橋接至 Gateway
📡
平台轉發請求
社群模型的 API 呼叫會轉發給可用的 Worker 節點
💰
賺取點數獎勵
依每 token 服務量累積平台點數,從呼叫者餘額扣除
暫停使用
社群 Worker 網路目前暫停使用。新的 Worker 註冊與社群模型路由已暫停。現有文件保留供參考。
Worker 提供者 AI Skill 檔案
將下方連結貼給任意 AI 助理(Claude、Cursor、Copilot…),讓它完整了解 BazaarLink Worker 網路的安裝流程、定價規則與 CLI 指令: bazaarlink.ai/workerskill.md

呼叫社群模型

社群模型在 model ID 中使用 community/ 前綴。API 完全相容 OpenAI — 只需更換模型名稱。

列出可用的社群模型

GET/api/v1/models

社群模型會出現在模型列表中,ID 以 community/ 開頭。

bash
curl https://bazaarlink.ai/api/v1/models \
  -H "Authorization: Bearer sk-bl-YOUR_API_KEY" \
  | jq '.data[] | select(.id | startswith("community/"))'

發送 Chat Completion 請求

bash
curl https://bazaarlink.ai/api/v1/chat/completions \
  -H "Authorization: Bearer sk-bl-YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "community/qwen2.5:2b",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'
模型命名規則
community/ 後面的 model ID 即為 Ollama 的模型 tag(如 qwen2.5:2b、llama3.2:3b)。社群模型支援串流,依 token 計費 — 請查看 models endpoint 了解目前費率。

串流

社群模型支援串流回應,與雲端模型完全相同:

python
response = client.chat.completions.create(
    model="community/qwen2.5:2b",
    messages=[{"role": "user", "content": "Count to 10 slowly"}],
    stream=True,
)
for chunk in response:
    delta = chunk.choices[0].delta.content or ""
    print(delta, end="", flush=True)

架設 Worker 節點

只需三個步驟將算力加入網路:安裝 Ollama、安裝 Worker CLI,再連接 Gateway。

第一步 — 前置條件

Ollama
必要
從 ollama.com 安裝 — 支援 Linux、macOS、Windows
Node.js
≥ 18
執行 Worker CLI 所需
GPU
建議
僅 CPU 亦可運行,但速度明顯較慢
bash
# Pull the model you plan to serve
ollama pull qwen2.5:2b

# Verify Ollama is running
ollama list

第二步 — 安裝 Worker CLI

bash
npm install -g bazaarlink-worker

# Or run directly without installing
npx bazaarlink-worker --help

第三步 — 註冊

向平台註冊你的 Email。完成 Email 驗證後,系統會自動核發 Worker 金鑰(wk_...)並寄送至你的信箱。

bash
bazaarlink-worker register \
  --email your@email.com \
  --models qwen2.5:2b \
  --max-concurrent 4

第四步 — 用 Worker 金鑰登入

使用收到的 Worker 金鑰(wk_...)進行身份驗證並設定你的定價:

bash
bazaarlink-worker login \
  --key wk_YOUR_WORKER_KEY \
  --gateway wss://gateway.bazaarlink.ai \
  --models qwen2.5:2b \
  --ollama-url http://localhost:11434 \
  --input-price 0.10 \
  --output-price 0.20
--key必填
string
Email 驗證後系統核發的 Worker 金鑰(wk_...)
--gateway必填
string
WebSocket Gateway URL(wss://gateway.bazaarlink.ai)
--models必填
string
逗號分隔的 Ollama 模型 tag 清單
--input-price必填
number
每百萬 Prompt token 的獎勵定價(USD,如 0.10)
--output-price必填
number
每百萬 Completion token 的獎勵定價(USD,如 0.20)
--ollama-url
string
Ollama 基礎 URL(預設:http://localhost:11434)
--max-concurrent
number
最大同時請求數(1–6,預設:4)

第五步 — 開始服務

bash
bazaarlink-worker start

Worker 透過 WebSocket 連接 Gateway,開始接收推論任務。請保持程序持續運行(正式環境建議使用 PM2 或 systemd)。

bash
# Check status
bazaarlink-worker status

# Run as background service with PM2
npm install -g pm2
pm2 start "bazaarlink-worker start" --name bazaarlink-worker
pm2 save
Ollama 非預設埠
若 Ollama 執行在非預設埠(如 5005),在 login 時加上 --ollama-url http://localhost:5005。設定會儲存於本機,每次 start 時自動套用。

定價與獎勵

社群模型定價分兩層:向用戶收取的平台價,以及支付給 Worker 的獎勵。兩者均以每百萬 token 的 USD 計算。

Prompt token
Completion token
用戶支付(平台定價)
由管理員在社群定價設定
由管理員在社群定價設定
Worker 獲得(你的定價)
--input-price
--output-price

平台保留差額(利潤)。你的定價不得超過平台設定的上限。若超出,Gateway 會拒絕連線並回傳錯誤。

範例

text
Platform price:   $0.005 / 1M prompt tokens
Max worker price: $0.004 / 1M prompt tokens  (set by platform ceiling)

You set --input-price 0.004  ✓ accepted
You set --input-price 0.005  ✗ rejected (exceeds ceiling)

獎勵如何發放

每完成一筆請求,獎勵即計入你的 BazaarLink 帳戶餘額。獎勵金額 = 你的定價 × 服務的 token 數。累積的點數可用於任何 BazaarLink API 呼叫,或未來可提領(功能開發中)。

資料與隱私

當你的節點連線時,它會處理來自 BazaarLink 用戶的 API 請求。在加入之前,了解哪些資料會流經你的節點非常重要。

哪些資料會流經你的節點

  • 分配給你節點的每筆請求的用戶提示訊息與對話紀錄。
  • 模型名稱與生成參數(temperature、max tokens 等)。
  • 每筆工作完成後回報給平台的 token 數量。

哪些資料不會流經你的節點

  • 用戶身份、API 金鑰或帳號資訊——這些資料絕不會傳送給 Worker。
  • 付款或帳單資料。
  • 其他用戶的請求——每筆工作單獨派送。

平台審核與內容過濾

平台對每筆社群請求均套用進入與輸出內容過濾。包含偵測到的機密資訊(API 金鑰、token)或提示注入模式的 prompt,可能在到達你的節點之前即被攔截。回應內容在轉發給用戶之前同樣會經過掃描。

提供者驗證

加入 Worker 網路前,平台會對節點進行多層驗證:確認硬體機種與資源規格、並透過 AI 智能品質探測(Speed Probe + Quality Probe),確保節點能提供符合標準的模型回應。探測未通過的節點不會收到實際流量。

你作為節點營運者的義務

  • 除 Ollama 推論所需外,請勿記錄或儲存用戶提示內容。
  • 請勿將用戶提示用於訓練或分析。
  • 只在你控制且信任的硬體上執行節點。
  • 若發現任何疑似資料問題,請向平台管理員回報。
社群處理需明確選擇加入
只有明確請求社群模型(model: "community/*")的用戶,其請求才會路由到 Worker 節點。標準 API 呼叫絕不會被靜默路由至社群 Worker。
Support
Support
Hi! How can we help you?
Send a message and we'll get back to you soon.
Worker Network — Community GPU Inference (Suspended)