Groq API セットアップガイド
超高速推論が特徴のGroq APIを使うための設定手順。
費用
無料- 無料枠あり
- レート制限あり
- 超高速推論が特徴
必要なもの
- メールアドレス or Google/GitHubアカウント
手順
01. GroqCloudにアクセス
https://console.groq.com/
02. サインアップ
Google/GitHub/メールでアカウント作成
03. APIキー生成
API Keys → Create API Key
https://console.groq.com/keys
04. 完了
キーは gsk_... で始まる文字列
使い方
インストール:
pip install groq
基本的な使い方:
from groq import Groq
client = Groq(api_key="gsk_...")
response = client.chat.completions.create(
model="llama-3.1-70b-versatile",
messages=[{"role": "user", "content": "Hello!"}]
)
print(response.choices[0].message.content)
利用可能モデル
- llama-3.1-70b-versatile(推奨)
- llama-3.1-8b-instant(高速)
- mixtral-8x7b-32768
- gemma2-9b-it
参考リンク
ここから先は、よくある質問と詰まりポイントを詳しく解説します。
Q&A - Groqとは
なぜ速い?
専用チップ(LPU: Language Processing Unit)で推論を高速化。GPUより10倍以上速い場合も。
OpenAIとの違い
- Groq: 超高速推論、オープンソースモデル(Llama等)をホスト
- OpenAI: GPT-4系の独自モデル、機能が豊富
Q&A - レート制限
無料枠の制限は?
- リクエスト/分: 30
- トークン/分: 14,400(モデルにより異なる)
- トークン/日: 制限あり
Rate limit エラーが出る
- リクエスト間隔を空ける
- 小さいモデルに変更(8b→より軽量)
- 有料プランに移行
Q&A - モデル選択
どのモデルを使えばいい?
- llama-3.1-70b-versatile: 品質重視、汎用
- llama-3.1-8b-instant: 速度重視、軽量タスク
- mixtral-8x7b: コード生成に強い
GPT-4相当の品質は?
Llama 3.1 70Bは多くのベンチマークでGPT-4に近い性能。ただし一部タスクはGPT-4が優位。
Q&A - 互換性
OpenAI SDKで使える?
GroqはOpenAI互換API。base_urlを変えれば動く場合が多い。
from openai import OpenAI
client = OpenAI(
api_key="gsk_...",
base_url="https://api.groq.com/openai/v1"
)
LangChainで使える?
使える。langchain-groq パッケージを使用。
pip install langchain-groq
from langchain_groq import ChatGroq
llm = ChatGroq(model="llama-3.1-70b-versatile")
参考リンク
タグ: #Groq #LLM #高速推論 #Llama #無料API