Groq API セットアップガイド

超高速推論が特徴のGroq APIを使うための設定手順。


費用

無料
  • 無料枠あり
  • レート制限あり
  • 超高速推論が特徴

必要なもの

  • メールアドレス or Google/GitHubアカウント

手順

01. GroqCloudにアクセス

https://console.groq.com/

02. サインアップ

Google/GitHub/メールでアカウント作成

03. APIキー生成

API Keys → Create API Key

https://console.groq.com/keys

04. 完了

キーは gsk_... で始まる文字列


使い方

インストール:

pip install groq

基本的な使い方:

from groq import Groq

client = Groq(api_key="gsk_...") response = client.chat.completions.create( model="llama-3.1-70b-versatile", messages=[{"role": "user", "content": "Hello!"}] ) print(response.choices[0].message.content)


利用可能モデル

  • llama-3.1-70b-versatile(推奨)
  • llama-3.1-8b-instant(高速)
  • mixtral-8x7b-32768
  • gemma2-9b-it

参考リンク


ここから先は、よくある質問と詰まりポイントを詳しく解説します。


Q&A - Groqとは

なぜ速い?

専用チップ(LPU: Language Processing Unit)で推論を高速化。GPUより10倍以上速い場合も。

OpenAIとの違い

  • Groq: 超高速推論、オープンソースモデル(Llama等)をホスト
  • OpenAI: GPT-4系の独自モデル、機能が豊富
速度重視ならGroq、品質・機能重視ならOpenAI。

Q&A - レート制限

無料枠の制限は?

  • リクエスト/分: 30
  • トークン/分: 14,400(モデルにより異なる)
  • トークン/日: 制限あり
本番利用には有料プラン推奨。

Rate limit エラーが出る

  • リクエスト間隔を空ける
  • 小さいモデルに変更(8b→より軽量)
  • 有料プランに移行

Q&A - モデル選択

どのモデルを使えばいい?

  • llama-3.1-70b-versatile: 品質重視、汎用
  • llama-3.1-8b-instant: 速度重視、軽量タスク
  • mixtral-8x7b: コード生成に強い

GPT-4相当の品質は?

Llama 3.1 70Bは多くのベンチマークでGPT-4に近い性能。ただし一部タスクはGPT-4が優位。


Q&A - 互換性

OpenAI SDKで使える?

GroqはOpenAI互換API。base_urlを変えれば動く場合が多い。

from openai import OpenAI
client = OpenAI(
    api_key="gsk_...",
    base_url="https://api.groq.com/openai/v1"
)

LangChainで使える?

使える。langchain-groq パッケージを使用。

pip install langchain-groq
from langchain_groq import ChatGroq
llm = ChatGroq(model="llama-3.1-70b-versatile")

参考リンク


タグ: #Groq #LLM #高速推論 #Llama #無料API
← AI初心者シリーズ一覧へ