14x
推論加速
78%
成本節省
<50ms
平均延遲
100%
資料在台灣
為台灣企業打造
不只是快,更懂你的需求
💬
智慧客服
即時回應、多語支援,延遲 <100ms
回應速度提升 14x
📝
內容審核
大量文本快速分析,每秒處理千條
處理成本降低 78%
💻
程式碼助手
本地部署,程式碼不外洩
延遲降至 50ms
🎓
教育 AI
校園內網部署,學生隱私保護
每位學生 NT$5/月
支援主流模型
一個 API,多種模型
Llama 3.1 70B
14x
加速倍率
Context: 128K
可用Gemma 2 27B
12x
加速倍率
Context: 32K
可用Qwen 2.5 72B
11x
加速倍率
Context: 128K
可用Mistral Large
13x
加速倍率
Context: 64K
即將推出成本大幅節省
透明定價,沒有隱藏費用
| 比較項目 | 國際大廠 | FastAI TW | 優勢 |
|---|---|---|---|
| 輸入價格 /1K tokens | NT$0.96 | NT$0.001 | 99.9% |
| 輸出價格 /1K tokens | NT$1.92 | NT$0.002 | 99.9% |
| 100 萬 tokens 月費 | NT$1,350 | NT$300 | 78% |
| 平均延遲 | 800ms | <50ms | 14x 更快 |
| 資料位置 | 美國 | 台灣 🇹🇼 | 在地 |
| 繁中優化 | 一般 | 專項優化 | ✓ |
三行程式碼即可開始
相容 OpenAI API 格式,零學習成本遷移
import fastai_tw
client = fastai_tw.Client(api_key="你的金鑰")
response = client.chat.completions.create(
model="llama-3.1-70b",
messages=[
{"role": "user", "content": "用繁體中文解釋量子計算"}
],
temperature=0.7
)
print(response.choices[0].message.content)
# 回應時間:47ms(比 OpenAI 快 14 倍)選擇你的方案
從免費開始,按需擴展
開發者
免費
10 萬 tokens / 月
- ✓API 存取
- ✓3 個模型
- ✓社群支援
- ✓共享 GPU
最受歡迎
專業版
NT$2,999/月
500 萬 tokens / 月
- ✓全部模型
- ✓優先排程
- ✓Email 支援
- ✓專屬 GPU 配額
- ✓自訂微調
企業版
NT$9,999/月
無限 tokens
- ✓全部模型
- ✓SLA 99.9%
- ✓24/7 技術支援
- ✓私有部署
- ✓自訂模型
- ✓專屬客戶經理
加入候補名單
搶先體驗台灣最快的 AI 推論服務