Azure Blob Storage SDK for Python
Arbeiten mit Azure Blob Storage in Python
Müssen Sie Cloud-Speicher für Ihre Anwendung verwalten? Diese Fähigkeit vermittelt das Wissen zum Hochladen, Herunterladen, Auflisten und Verwalten von Azure Blob Storage-Containern und Blobs mit dem Python SDK.
下载技能 ZIP
在 Claude 中上传
前往 设置 → 功能 → 技能 → 上传技能
开启并开始使用
测试它
正在使用“Azure Blob Storage SDK for Python”。 Wie lade ich eine Datei in Azure Blob Storage hoch?
预期结果:
Um eine Datei hochzuladen, benötigen Sie den BlobServiceClient mit Ihren Konto-Anmeldeinformationen. Holen Sie sich einen BlobClient für Ihren spezifischen Container und Blob-Namen, und verwenden Sie dann upload_blob() mit den Dateidaten. Setzen Sie overwrite=True, um vorhandene Blobs zu ersetzen. Für große Dateien verwenden Sie max_concurrency für parallele Uploads.
正在使用“Azure Blob Storage SDK for Python”。 Was ist der beste Weg, um große Blob-Uploads zu verarbeiten?
预期结果:
Für große Dateien über 64MB verwendet Azure automatisch Block-Uploads. Konfigurieren Sie max_single_put_size, um den Schwellenwert zu steuern. Verwenden Sie max_concurrency, um paralleles Hochladen zu ermöglichen. Für beste Leistung verwenden Sie 4-8 gleichzeitige Verbindungen und stellen Sie sicher, dass Ihre Blockgröße 4MB beträgt.
安全审计
安全Prompt-only documentation skill providing reference material for Azure Blob Storage SDK for Python. No executable code scanned. Static analysis found zero issues. This skill contains only markdown documentation for helping users interact with Azure Blob Storage operations - no scripts, network calls, or file operations.
质量评分
你能构建什么
Datenpipelines erstellen
Daten zwischen lokalen Systemen und Cloud-Speicher für ETL-Workflows verschieben
Statische Website-Assets bereitstellen
Statische Dateien wie Bilder, Videos und Dokumente hosten und bereitstellen
Anwendungsdaten sichern
Backups von Datenbanken, Logs und Anwendungszuständen speichern
试试这些提示
Help me upload a file called 'data.json' to an Azure Blob Storage container named 'backups' using Python.
Show me how to list all blobs in a container called 'documents', including their sizes and last modified dates.
Write Python code to download a 500MB file from blob storage with parallel downloading for better performance.
Create a SAS token with read and write permissions that expires in 1 hour, and show how to use it to access a blob.
最佳实践
- Verwenden Sie DefaultAzureCredential anstelle von Verbindungszeichenfolgen für bessere Sicherheit
- Setzen Sie entsprechende content-type-Header beim Hochladen von Blobs für Web-Serving
- Verwenden Sie den max_concurrency-Parameter für große Dateiübertragungen zur Leistungsverbesserung
避免
- Speichern von Kontoschlüsseln im Code - verwenden Sie immer Azure Identity oder Umgebungsvariablen
- Herunterladen entire großer Blobs in den Speicher mit readall() - verwenden Sie readinto() für Streaming
- Verwenden von hartkodierten Container- oder Blob-Namen - verwenden Sie Konfiguration für Flexibilität