スキル transformers
🤖

transformers

安全 ⚙️ 外部コマンド⚡ スクリプトを含む🌐 ネットワークアクセス

Hugging Face TransformersでAIモデルをデプロイ

こちらからも入手できます: davila7

複雑なMLモデルのセットアップに苦労するのは終わりです。このスキルでは、シンプルなコマンドでテキスト、画像、タスク用の数千の事前学習済みトランスファーモデルに即座にアクセスできます。

対応: Claude Codex Code(CC)
📊 71 十分
1

スキルZIPをダウンロード

2

Claudeでアップロード

設定 → 機能 → スキル → スキルをアップロードへ移動

3

オンにして利用開始

テストする

「transformers」を使用しています。 GPT-2をロードして宇宙探検についての短いストーリーを作成するPythonスクリプトを生成

期待される結果:

  • Hugging FaceからGPT-2モデルをロード
  • 火星ミッションについての150語のストーリーを生成
  • ストーリーを'space_story.txt'に保存
  • ストーリー preview: '火星の赤い埃がハビタットの周りで渦を巻いていた...'

「transformers」を使用しています。 これらの画像を猫か犬に分類

期待される結果:

  • ビジョントランスフォーマーモデルをロード
  • 5つのテスト画像を分析
  • 結果: 猫3匹(60%)、犬2匹(40%)
  • 最高信頼度: image3.jpg (猫97%)

「transformers」を使用しています。 この研究論文の段落を要約

期待される結果:

  • facebook/bart-largeで要約パイプラインをロード
  • 3文の要約を生成
  • 保持された重要ポイント: 方法論、結果、結論

セキュリティ監査

安全
v4 • 1/17/2026

All 412 static findings are false positives. The skill contains markdown documentation with Python code examples for Hugging Face Transformers library usage. Bash command patterns in documentation (pip install examples), URL references, and technical terminology triggered the analyzer incorrectly. No executable code, network requests, or security vulnerabilities present.

7
スキャンされたファイル
2,527
解析された行数
3
検出結果
4
総監査数
監査者: claude 監査履歴を表示 →

品質スコア

45
アーキテクチャ
100
保守性
85
コンテンツ
20
コミュニティ
100
セキュリティ
91
仕様準拠

作れるもの

NLPモデルのクイックプロトタイプ

ボイラープレートコードを記述せずに、テキスト分類用の異なるトランスファーモデルをテスト

モデルパフォーマンスの比較

データセット上で複数の事前学習済みモデルをベンチマークして、最高のパフォーマンスを発揮するものを見つける

アプリケーションにAIを追加

最小限の設定でテキスト生成や画像分類をアプリに統合

これらのプロンプトを試す

基本的なテキスト生成
GPT-2モデルをロードして、'AIの未来は'の3つのバリエーションを生成
感情分析
これらのレビューの感情を分析するパイプラインを作成: ['素晴らしい製品!', '最悪の経験', '一般的な品質']
モデル比較
BERT、RoBERTa、DistilBERTをテキスト分類精度で私のデータセットを使用して比較
カスタムファインチューニング
BERTを'text'と'label'列を持つCSVファイルで3エポックファインチューニング

ベストプラクティス

  • クイックタスクにはpipeline API、きめ細かな制御にはカスタムモデルを使用
  • デプロイ前に使用制限とバイアスについてモデルカードを確認
  • テスト用には小さいモデルから開始、本番環境ではスケールアップ

回避

  • モデルライセンスを確認せずに機密データでファインチューニングしない
  • CPUのみのマシンで大規模なモデルをロードしない
  • ユースケースの出力テストせずにモデルをデプロイしない

よくある質問

GPUが必要ですか?
必須ではないが推奨。小規模モデルはCPUで動作、大規模モデルは適切な速度のためにGPUが必要。
モデルは無料で使用できますか?
ほとんどは無料研究および商用利用可。各モデルのライセンスはHugging Faceページで確認してください。
レート制限に対処するには?
最初はモデルをローカルにダウンロード、その後キャッシュからロード。プライバシーにはオフラインモードを使用。
カスタムデータセットを使用できますか?
はい、スキルはCSV、JSON、その他のフォーマットでのファインチューニングをTrainer API経由でサポートしています。
どのモデルを選ぶべきですか?
NLPにはBERT、ビジョンにはViTなど確立されたモデルから開始してください。最新のモデルについてはリーダーボードを確認してください。
生成品質を向上させるには?
温度を0.1から1.0の間で調整し、top-kまたはtop-pサンプリングを使用し、明確で具体的なプロンプトを提供します。

開発者の詳細

作成者

K-Dense-AI

ライセンス

Apache-2.0 license

参照

main

ファイル構成