hugging-face-cli
ターミナルから Hugging Face Hub を管理
Hugging Face Hub での AI モデルやデータセットの作業には、複数のツールと手作業によるステップが必要です。このスキルは、統一されたコマンドを通じて ML リソースのダウンロード、アップロード、管理を直接 CLI で実行できるようにすることで、ワークフローを合理化します。
スキルZIPをダウンロード
Claudeでアップロード
設定 → 機能 → スキル → スキルをアップロードへ移動
オンにして利用開始
テストする
「hugging-face-cli」を使用しています。 モデルをローカルディレクトリにダウンロード
期待される結果:
モデル meta-llama/Llama-3.2-1B-Instruct が ./models ディレクトリに正常にダウンロードされました。合計サイズ:15 ファイルで 2.1 GB。
「hugging-face-cli」を使用しています。 キャッシュされたリポジトリの一覧表示
期待される結果:
キャッシュされたリポジトリ:gpt2 (1.2 GB)、bert-base-uncased (440 MB)、t5-base (890 MB)。キャッシュ使用量合計:2.53 GB。
セキュリティ監査
安全Static analysis detected 76 patterns in documentation content, but all are false positives. The skill file is markdown documentation showing usage examples for the official Hugging Face hf CLI tool, not executable code. No actual security risks exist - external command patterns are CLI documentation examples, network references are URLs in documentation, and cryptographic warnings do not match any actual crypto implementations.
リスク要因
⚙️ 外部コマンド (3)
🌐 ネットワークアクセス (1)
品質スコア
作れるもの
ML エンジニアのモデルデプロイメント
Hugging Face Hub から事前トレーニング済みモデルをダウンロードして、ローカルデプロイメントと推論サービスに使用します。
研究者のデータセット管理
実験用データセットをプライベートリポジトリにアップロードし、バージョン管理されたリリースを通じて共同研究者と共有します。
開発者のキャッシュ最適化
ローカルモデルキャッシュを管理してストレージを最適化し、開発で頻繁に使用するモデルに迅速にアクセスします。
これらのプロンプトを試す
モデル meta-llama/Llama-3.2-1B-Instruct をローカルモデルディレクトリにダウンロードしてください。
トレーニング済みのモデルを ./output フォルダから Hugging Face リポジトリにアップロードしてください。コミットメッセージは 'Initial model release' にしてください。
テキスト分類に関連するデータセットでダウンロード数の多いものを探し、詳細を表示してください。
現在のキャッシュ使用量を確認し、未使用のモデルを削除してから、指定されたイメージとコマンドを使用してデータセットを処理する GPU ジョブを実行してください。
ベストプラクティス
- スクリプト作成目的でダウンロードパスのみが必要な場合は、常に --quiet フラグを使用してください
- 機密性の高いモデルやデータセットをアップロードする前に、プライベートリポジトリを作成してください
- モデルのアップデートをアップロードする際は、変更内容を明確に説明するコミットメッセージを使用してください
- デタッチされたキャッシュリビジョンを定期的に整理してディスク容量を解放してください
回避
- API キー、認証情報、機密設定データを含むファイルをパブリックリポジトリにアップロードしないでください
- 利用可能なディスク容量を事前に確認せずに大規模なモデル全体をダウンロードしないでください
- コマンド履歴やコミットメッセージに HF_TOKEN を共有しないでください
- --flavor オプションを使用してコストを見積もらずに計算ジョブを実行しないでください