Fähigkeiten hypogenic
📊

hypogenic

Niedriges Risiko 🌐 Netzwerkzugriff⚙️ Externe Befehle

Wissenschaftliche Hypothesen aus Daten generieren

Auch verfügbar von: davila7

Manuelle Hypothesengenerierung ist zeitaufwändig und anfällig für kognitive Verzerrungen. Hypogenic automatisiert die Hypothesengenerierung und -prüfung mithilfe von LLMs und ermöglicht es Forschern, systematisch Muster in tabellarischen Datensätzen zu erkunden und empirische Erkenntnisse mit Literatureinblicken zu kombinieren.

Unterstützt: Claude Codex Code(CC)
⚠️ 68 Schlecht
1

Die Skill-ZIP herunterladen

2

In Claude hochladen

Gehe zu Einstellungen → Fähigkeiten → Skills → Skill hochladen

3

Einschalten und loslegen

Teste es

Verwendung von "hypogenic". Eine kleine Teilmenge tabellarischer Daten mit Textmerkmalen und Labels, die Muster im Kundenverhalten zeigen

Erwartetes Ergebnis:

1. Hypothesis: Samples with feature_X above threshold tend to have label_A due to underlying causal mechanism.
2. Hypothesis: The interaction between feature_Y and feature_Z creates a stronger effect than either alone.
3. Hypothesis: Label_B is associated with specific linguistic patterns in feature_W.

Verwendung von "hypogenic". Validierungsergebnisse, die zeigen, welche Hypothesen bei bestimmten Datensubsets unterdurchschnittlich abschneiden

Erwartetes Ergebnis:

Refined Hypothesis 1: When feature_X > threshold AND feature_Y is low, label_A is more likely (updated from original to account for interaction effect).
Refined Hypothesis 3: The linguistic pattern in feature_W is more predictive when combined with metadata about source type.

Sicherheitsaudit

Niedriges Risiko
v6 • 1/21/2026

This scientific hypothesis generation skill was scanned with 126 potential issues detected. After evaluation, all findings are false positives: environment variable references for API keys follow security best practices; hardcoded URLs are legitimate documentation links; shell command examples are user setup instructions; no actual cryptographic code or command-and-control patterns exist. The skill makes normal LLM API calls for hypothesis generation, which is expected functionality.

3
Gescannte Dateien
2,075
Analysierte Zeilen
2
befunde
6
Gesamtzahl Audits
Auditiert von: claude Audit-Verlauf anzeigen →

Qualitätsbewertung

41
Architektur
100
Wartbarkeit
87
Inhalt
20
Community
90
Sicherheit
87
Spezifikationskonformität

Was du bauen kannst

Hypothesenexploration für akademische Forschung

Generieren und testen Sie mehrere Hypothesen über Muster in Beobachtungsdaten, wie z.B. die Erkennung von Täuschung in Texten oder die Identifizierung von psychischen Gesundheitsindikatoren aus Social-Media-Beiträgen.

Domänenspezifische Mustererkennung

Erkunden Sie empirische Zusammenhänge in tabellarischen Datensätzen für Anwendungen wie Inhaltsanalyse, prädiktive Modellierung oder Klassifikationsforschung.

Literaturgestützte Hypothesengenerierung

Kombinieren Sie bestehende Forschungsarbeiten mit empirischen Daten, um theoretisch fundierte Hypothesen zu generieren, die wissenschaftliche Theorien erweitern oder validieren.

Probiere diese Prompts

Erste Hypothesen aus Daten generieren
Analyze the following data samples and identify patterns in the features and labels. Generate {num_hypotheses} specific, testable hypotheses that could explain these patterns. Each hypothesis should be concrete and falsifiable.
Bestehende Hypothesen verfeinern
Review the following hypotheses and the validation results. Identify which hypotheses are underperforming and generate improved versions that better explain the challenging examples. Focus on specificity and testability.
Literaturerkenntnisse mit Daten integrieren
Based on the following research paper insights: {paper_insights}, and the observed data patterns: {data_observations}, generate hypotheses that combine theoretical foundations with empirical findings.
Hypothesenrelevanz validieren
Given the hypothesis: {hypothesis}, and the data sample: {data_sample}, evaluate whether this hypothesis is relevant and testable for this dataset. Provide specific reasoning.

Bewährte Verfahren

  • Beginnen Sie mit einem sauberen Datensatz im HuggingFace-Format mit korrekt benannten Textmerkmalen und Labels
  • Verwenden Sie mindestens 10-20 Hypothesen für eine umfassende Erkundung des Musterraums
  • Verfeinern Sie Hypothesen iterativ basierend auf Validierungsleistung, anstatt alle auf einmal zu generieren
  • Kombinieren Sie Literaturerkenntnisse mit datengetriebenen Hypothesen für fundiertere theoretische Rahmenwerke

Vermeiden

  • Verwendung von Datensätzen, die nicht dem erforderlichen HuggingFace-Format mit korrekter Schlüsselbenennung entsprechen
  • Generierung zu weniger Hypothesen und Übersehen wichtiger Musterbeziehungen
  • Überspringen des iterativen Verfeinerungsprozesses und Akzeptieren der ersten Hypothesen
  • Ausführung ohne ordnungsgemäße API-Konfiguration oder Cache-Einrichtung für Kostenmanagement

Häufig gestellte Fragen

In welchem Format muss mein Datensatz vorliegen?
Datensätze müssen dem HuggingFace-Format folgen mit Dateien namens <TASK>_train.json, <TASK>_val.json und <TASK>_test.json. Jede Datei muss text_features_1 bis text_features_n (Listen von Strings) und ein label (Liste von Strings) enthalten.
Welche LLM-Anbieter werden unterstützt?
Hypogenic unterstützt OpenAI GPT-Modelle, Anthropic Claude-Modelle und lokale LLMs über kompatible APIs. Konfigurieren Sie Ihren bevorzugten Anbieter in der config.yaml-Datei.
Was ist der Unterschied zwischen HypoGeniC, HypoRefine und Union-Methoden?
HypoGeniC generiert Hypothesen ausschließlich aus Daten. HypoRefine kombiniert Literaturerkenntnisse mit empirischen Mustern. Union-Methoden kombinieren rein literaturbasierte Hypothesen mit Framework-Ausgaben für umfassende Abdeckung.
Wie viele Hypothesen sollte ich generieren?
Das Framework generiert typischerweise 10-20+ Hypothesen. Mehr Hypothesen erkunden mehr Musterraum, erhöhen aber die API-Kosten. Beginnen Sie mit 20 und passen Sie basierend auf Ihren Validierungsergebnissen an.
Brauche ich Redis für Caching?
Redis ist optional, wird aber empfohlen, um API-Kosten während iterativer Experimente zu reduzieren. Es speichert LLM-Antworten zwischen, um redundante Aufrufe für dieselben Prompts zu vermeiden.
Was sind die Rechenanforderungen?
Die grundlegende Nutzung erfordert minimale Ressourcen mit nur Python und pip. Für Literaturverarbeitung mit PDF-Parsing benötigen Sie GROBID als laufenden Dienst. Für die lokale LLM-Nutzung werden GPU-Ressourcen empfohlen.

Entwicklerdetails

Dateistruktur