Hugging Face トークン取得ガイド

LlamaやMistralなどのオープンソースモデルを使うための設定手順。


費用

無料
  • モデルダウンロード・Inference API無料枠あり
  • Pro版 $9/月

必要なもの

  • メールアドレス

手順

01. アカウント作成

https://huggingface.co/join

02. メール認証

届いたメールのリンクをクリック

03. アクセストークン作成

Settings → Access Tokens → New token

https://huggingface.co/settings/tokens

04. トークン設定

  • Name: 任意
  • Type: Read(読み取り専用で十分)
Writeが必要なケース: モデルのアップロード、Spacesへのpush

05. 完了

トークンは hf_... で始まる文字列


Gatedモデルへのアクセス

Llama、Mistralなど一部モデルはライセンス同意が必要。

01. モデルページにアクセス

例: https://huggingface.co/meta-llama/Llama-3.2-3B

02. ライセンスに同意

「Agree and access repository」をクリック

承認は即時〜数時間。Metaモデルは通常即時。

設定後

CLIでログイン:

huggingface-cli login

またはPythonで使用:

from transformers import AutoModel
model = AutoModel.from_pretrained("model-name", token=True)

参考リンク


ここから先は、よくある質問と詰まりポイントを詳しく解説します。


Q&A - トークン関連

ReadとWriteの違い

  • Read: モデルのダウンロード、Inference API利用
  • Write: モデルのアップロード、リポジトリ作成、Spaces管理
ほとんどの場合Readで十分。

トークンを複数作れる?

作れる。プロジェクトごとに分けるのが推奨。

トークンが漏洩した

Settings → Access Tokens → 該当トークンを削除 → 新規作成


Q&A - Gatedモデル関連

Gatedモデルとは?

利用規約への同意が必要なモデル。Llama、Mistralなどの大規模モデルに多い。

「Accept license」ボタンがない

ログインしていない可能性。右上からログイン後、再度モデルページへ。

承認が来ない

Meta(Llama)は即時承認。一部モデルは手動承認で数日かかる場合あり。

「You need to agree to the license」エラー

モデルページでライセンスに同意していない。ブラウザでモデルページを開いて「Agree」をクリック。


Q&A - ダウンロード関連

モデルが大きすぎてダウンロードできない

  • ディスク容量を確認
  • 小さいモデルを選ぶ(70B→7B→3B)
  • 量子化版を使う(GGUF形式など)

ダウンロードが途中で止まる

huggingface-cli download はレジューム対応。再実行すれば続きから。

キャッシュの場所

  • デフォルト: ~/.cache/huggingface/
  • 環境変数 HF_HOME で変更可能

Q&A - Transformers関連

CUDAエラーが出る

  • PyTorchとCUDAのバージョン不一致
  • GPUメモリ不足
  • CPUで動かす: model.to("cpu")

「Token is required」エラー

Gatedモデルにトークンなしでアクセスしている。

huggingface-cli login

または token="hf_..." を渡す


Q&A - Inference API

Inference APIとは?

HuggingFaceがホストするAPI。自分のマシンにモデルをダウンロードせずに使える。無料枠あり。

レート制限に引っかかる

無料枠は制限あり。Pro版($9/月)で緩和。または自前でモデルを動かす。


参考リンク


タグ: #HuggingFace #Transformers #Llama #機械学習 #オープンソース
← AI初心者シリーズ一覧へ