技能 hypogenic
📊

hypogenic

低風險 🌐 網路存取⚙️ 外部命令

從資料中產生科學假設

也可從以下取得: davila7

手動產生假設耗時且容易產生認知偏差。Hypogenic 使用 LLM 自動化假設產生和測試,使研究人員能夠系統性地探索表格資料集中的模式,並將經驗發現與文獻見解相結合。

支援: Claude Codex Code(CC)
⚠️ 68
1

下載技能 ZIP

2

在 Claude 中上傳

前往 設定 → 功能 → 技能 → 上傳技能

3

開啟並開始使用

測試它

正在使用「hypogenic」。 具有文字特徵和標籤的小型表格資料子集,顯示客戶行為中的模式

預期結果:

1. 假設:feature_X 高於閾值的樣本傾向於具有 label_A,這是由於潛在的因果機制。
2. 假設:feature_Y 和 feature_Z 之間的交互作用產生比單獨任何一個更強的效果。
3. 假設:label_B 與 feature_W 中的特定語言模式相關聯。

正在使用「hypogenic」。 驗證結果顯示哪些假設在某些資料子集上表現不佳

預期結果:

改進的假設 1:當 feature_X > 閾值且 feature_Y 較低時,label_A 更可能(從原始版本更新以考慮交互作用效果)。
改進的假設 3:feature_W 中的語言模式在與來源類型的中繼資料相結合時更具預測性。

安全審計

低風險
v6 • 1/21/2026

This scientific hypothesis generation skill was scanned with 126 potential issues detected. After evaluation, all findings are false positives: environment variable references for API keys follow security best practices; hardcoded URLs are legitimate documentation links; shell command examples are user setup instructions; no actual cryptographic code or command-and-control patterns exist. The skill makes normal LLM API calls for hypothesis generation, which is expected functionality.

3
已掃描檔案
2,075
分析行數
2
發現項
6
審計總數
審計者: claude 查看審計歷史 →

品質評分

41
架構
100
可維護性
87
內容
20
社群
90
安全
87
規範符合性

你能建構什麼

學術研究假設探索

從觀測資料中產生和測試關於模式的多個假設,例如檢測文字中的欺騙行為或從社交媒體貼文識別心理健康指標。

特定領域模式發現

探索表格資料集中的經驗關係,應用於內容分析、預測建模或分類研究。

以文獻為基礎的假設產生

將現有研究論文與經驗資料相結合,產生延伸或驗證科學理論的理論基礎假設。

試試這些提示

從資料產生初始假設
分析以下資料樣本並識別特徵和標籤中的模式。產生 {num_hypotheses} 個具體、可測試的假設來解釋這些模式。每個假設應該是具體且可否定的。
改進現有假設
審查以下假設和驗證結果。找出哪些假設表現不佳,並產生更能解釋具有挑戰性範例的改進版本。專注於特異性和可測試性。
將文獻見解與資料相結合
基於以下研究論文見解:{paper_insights},以及觀測到的資料模式:{data_observations},產生將理論基礎與經驗發現相結合的假設。
驗證假設相關性
給定假設:{hypothesis},以及資料樣本:{data_sample},評估此假設是否與此資料集相關且可測試。提供具體推理。

最佳實務

  • 從符合 HuggingFace 格式且具有正確命名的文字特徵和標籤的乾淨資料集開始
  • 使用至少 10-20 個假設來全面探索模式空間
  • 根據驗證效能迭代改進假設,而不是一次性產生所有假設
  • 將文獻見解與資料驅動的假設相結合,以獲得更具基礎的理論框架

避免

  • 使用不符合所需 HuggingFace 格式且沒有正確鍵命名的資料集
  • 產生太少的假設而錯過重要的模式關係
  • 跳過迭代改進過程並接受初始假設
  • 在沒有正確 API 設定或快取設定的情況下執行,以控制成本

常見問題

我的資料集需要什麼格式?
資料集必須符合 HuggingFace 格式,檔案命名為 <TASK>_train.json、<TASK>_val.json 和 <TASK>_test.json。每個檔案必須包含 text_features_1 到 text_features_n(字串列表)和一個 label(字串列表)。
支援哪些 LLM 提供者?
Hypogenic 支援 OpenAI GPT 模型、Anthropic Claude 模型,以及透過相容 API 的本地 LLM。在 config.yaml 檔案中設定您偏好的提供者。
HypoGeniC、HypoRefine 和 Union 方法之間有什麼區別?
HypoGeniC 僅從資料產生假設。HypoRefine 將文獻見解與經驗模式相結合。Union 方法將僅文獻假設與框架輸出相結合,以實現全面覆蓋。
我應該產生多少個假設?
框架通常會產生 10-20 個以上的假設。更多假設可以探索更多模式空間,但會增加 API 成本。從 20 個開始,然後根據驗證結果進行調整。
我需要 Redis 進行快取嗎?
Redis 是可選的,但建議用於在迭代實驗中降低成本。它會快取 LLM 回應以避免對相同提示進行多餘的呼叫。
計算需求是什麼?
基本使用只需要最少資源,只需 Python 和 pip。對於使用 PDF 解析的文獻處理,您需要將 GROBID 作為服務執行。對於本地 LLM 使用,建議使用 GPU 資源。

開發者詳情

檔案結構