スキル hugging-face-cli
🤗

hugging-face-cli

安全 ⚙️ 外部コマンド🌐 ネットワークアクセス

ターミナルから Hugging Face Hub を管理

Hugging Face Hub での AI モデルやデータセットの作業には、複数のツールと手作業によるステップが必要です。このスキルは、統一されたコマンドを通じて ML リソースのダウンロード、アップロード、管理を直接 CLI で実行できるようにすることで、ワークフローを合理化します。

対応: Claude Codex Code(CC)
🥉 74 ブロンズ
1

スキルZIPをダウンロード

2

Claudeでアップロード

設定 → 機能 → スキル → スキルをアップロードへ移動

3

オンにして利用開始

テストする

「hugging-face-cli」を使用しています。 モデルをローカルディレクトリにダウンロード

期待される結果:

モデル meta-llama/Llama-3.2-1B-Instruct が ./models ディレクトリに正常にダウンロードされました。合計サイズ:15 ファイルで 2.1 GB。

「hugging-face-cli」を使用しています。 キャッシュされたリポジトリの一覧表示

期待される結果:

キャッシュされたリポジトリ:gpt2 (1.2 GB)、bert-base-uncased (440 MB)、t5-base (890 MB)。キャッシュ使用量合計:2.53 GB。

セキュリティ監査

安全
v1 • 2/25/2026

Static analysis detected 76 patterns in documentation content, but all are false positives. The skill file is markdown documentation showing usage examples for the official Hugging Face hf CLI tool, not executable code. No actual security risks exist - external command patterns are CLI documentation examples, network references are URLs in documentation, and cryptographic warnings do not match any actual crypto implementations.

1
スキャンされたファイル
199
解析された行数
2
検出結果
1
総監査数

リスク要因

⚙️ 外部コマンド (3)
🌐 ネットワークアクセス (1)
監査者: claude

品質スコア

38
アーキテクチャ
100
保守性
87
コンテンツ
50
コミュニティ
100
セキュリティ
91
仕様準拠

作れるもの

ML エンジニアのモデルデプロイメント

Hugging Face Hub から事前トレーニング済みモデルをダウンロードして、ローカルデプロイメントと推論サービスに使用します。

研究者のデータセット管理

実験用データセットをプライベートリポジトリにアップロードし、バージョン管理されたリリースを通じて共同研究者と共有します。

開発者のキャッシュ最適化

ローカルモデルキャッシュを管理してストレージを最適化し、開発で頻繁に使用するモデルに迅速にアクセスします。

これらのプロンプトを試す

モデルのダウンロード
モデル meta-llama/Llama-3.2-1B-Instruct をローカルモデルディレクトリにダウンロードしてください。
Hub へのファイルアップロード
トレーニング済みのモデルを ./output フォルダから Hugging Face リポジトリにアップロードしてください。コミットメッセージは 'Initial model release' にしてください。
データセットの検索
テキスト分類に関連するデータセットでダウンロード数の多いものを探し、詳細を表示してください。
キャッシュ管理と計算ジョブの実行
現在のキャッシュ使用量を確認し、未使用のモデルを削除してから、指定されたイメージとコマンドを使用してデータセットを処理する GPU ジョブを実行してください。

ベストプラクティス

  • スクリプト作成目的でダウンロードパスのみが必要な場合は、常に --quiet フラグを使用してください
  • 機密性の高いモデルやデータセットをアップロードする前に、プライベートリポジトリを作成してください
  • モデルのアップデートをアップロードする際は、変更内容を明確に説明するコミットメッセージを使用してください
  • デタッチされたキャッシュリビジョンを定期的に整理してディスク容量を解放してください

回避

  • API キー、認証情報、機密設定データを含むファイルをパブリックリポジトリにアップロードしないでください
  • 利用可能なディスク容量を事前に確認せずに大規模なモデル全体をダウンロードしないでください
  • コマンド履歴やコミットメッセージに HF_TOKEN を共有しないでください
  • --flavor オプションを使用してコストを見積もらずに計算ジョブを実行しないでください

よくある質問

Hugging Face Hub への認証方法
hf auth login を実行して対話式認証を行ってください。または、Hugging Face アカウント設定から取得したパーソナルアクセストークンを使用して、hf auth login --token YOUR_TOKEN を実行することで非対話式ログインが可能です。
ダウンロードしたモデルはどこに保存されますか?
ダウンロードされたモデルはデフォルトで Hugging Face キャッシュディレクトリに保存されます。カスタムダウンロード場所を指定するには --local-dir オプションを使用するか、hf cache ls を実行してキャッシュされたアイテムを確認してください。
他のユーザーのリポジトリにアップロードできますか?
自分が所有しているリポジトリ、または書き込みアクセス権を持つリポジトリにのみアップロードできます。他のプロジェクトに貢献する場合は、--create-pr フラグを使用してプルリクエストを提出してください。
大規模なモデルファイルはどのように管理しますか?
*.safetensors などの特定のファイルタイプのみをダウンロードするには --include フラグを使用してください。アップロードの場合は、hf CLI が大規模ファイルに対して自動的に処理する Git LFS の使用を検討してください。
計算ジョブで利用可能な GPU オプションは何ですか?
利用可能なフレーバーは CPU-basic から H100 GPU までです。--flavor に、計算要件と予算に応じて t4-small、l4x1、a10g-small、a100-large などの値を指定してください。
認証ステータスを確認するにはどうすればよいですか?
hf auth whoami を実行して現在ログインしているユーザーを確認するか、hf auth list を実行してシステム上のすべての保存された認証トークンを確認してください。

開発者の詳細

ファイル構成

📄 SKILL.md