Hugging Face トークン取得ガイド
LlamaやMistralなどのオープンソースモデルを使うための設定手順。
費用
無料- モデルダウンロード・Inference API無料枠あり
- Pro版 $9/月
必要なもの
- メールアドレス
手順
01. アカウント作成
https://huggingface.co/join
02. メール認証
届いたメールのリンクをクリック
03. アクセストークン作成
Settings → Access Tokens → New token
https://huggingface.co/settings/tokens
04. トークン設定
- Name: 任意
- Type: Read(読み取り専用で十分)
Writeが必要なケース: モデルのアップロード、Spacesへのpush
05. 完了
トークンは hf_... で始まる文字列
Gatedモデルへのアクセス
Llama、Mistralなど一部モデルはライセンス同意が必要。
01. モデルページにアクセス
例: https://huggingface.co/meta-llama/Llama-3.2-3B
02. ライセンスに同意
「Agree and access repository」をクリック
承認は即時〜数時間。Metaモデルは通常即時。
設定後
CLIでログイン:
huggingface-cli login
またはPythonで使用:
from transformers import AutoModel
model = AutoModel.from_pretrained("model-name", token=True)
参考リンク
ここから先は、よくある質問と詰まりポイントを詳しく解説します。
Q&A - トークン関連
ReadとWriteの違い
- Read: モデルのダウンロード、Inference API利用
- Write: モデルのアップロード、リポジトリ作成、Spaces管理
トークンを複数作れる?
作れる。プロジェクトごとに分けるのが推奨。
トークンが漏洩した
Settings → Access Tokens → 該当トークンを削除 → 新規作成
Q&A - Gatedモデル関連
Gatedモデルとは?
利用規約への同意が必要なモデル。Llama、Mistralなどの大規模モデルに多い。
「Accept license」ボタンがない
ログインしていない可能性。右上からログイン後、再度モデルページへ。
承認が来ない
Meta(Llama)は即時承認。一部モデルは手動承認で数日かかる場合あり。
「You need to agree to the license」エラー
モデルページでライセンスに同意していない。ブラウザでモデルページを開いて「Agree」をクリック。
Q&A - ダウンロード関連
モデルが大きすぎてダウンロードできない
- ディスク容量を確認
- 小さいモデルを選ぶ(70B→7B→3B)
- 量子化版を使う(GGUF形式など)
ダウンロードが途中で止まる
huggingface-cli download はレジューム対応。再実行すれば続きから。
キャッシュの場所
- デフォルト:
~/.cache/huggingface/ - 環境変数
HF_HOMEで変更可能
Q&A - Transformers関連
CUDAエラーが出る
- PyTorchとCUDAのバージョン不一致
- GPUメモリ不足
- CPUで動かす:
model.to("cpu")
「Token is required」エラー
Gatedモデルにトークンなしでアクセスしている。
huggingface-cli login
または token="hf_..." を渡す
Q&A - Inference API
Inference APIとは?
HuggingFaceがホストするAPI。自分のマシンにモデルをダウンロードせずに使える。無料枠あり。
レート制限に引っかかる
無料枠は制限あり。Pro版($9/月)で緩和。または自前でモデルを動かす。
参考リンク
タグ: #HuggingFace #Transformers #Llama #機械学習 #オープンソース