Навыки hypogenic
📊

hypogenic

Низкий риск 🌐 Доступ к сети⚙️ Внешние команды

Генерация научных гипотез из данных

Также доступно от: davila7

Ручная генерация гипотез занимает много времени и подвержена когнитивным искажениям. Hypogenic автоматизирует генерацию и тестирование гипотез с помощью LLM, позволяя исследователям систематически исследовать паттерны в табличных наборах данных и объединять эмпирические результаты с выводами из литературы.

Поддерживает: Claude Codex Code(CC)
⚠️ 68 Плохо
1

Скачать ZIP навыка

2

Загрузить в Claude

Перейдите в Settings → Capabilities → Skills → Upload skill

3

Включите и начните использовать

Протестировать

Использование «hypogenic». Небольшой поднабор табличных данных с текстовыми признаками и метками, показывающий паттерны в поведении клиентов

Ожидаемый результат:

1. Hypothesis: Samples with feature_X above threshold tend to have label_A due to underlying causal mechanism.
2. Hypothesis: The interaction between feature_Y and feature_Z creates a stronger effect than either alone.
3. Hypothesis: Label_B is associated with specific linguistic patterns in feature_W.

Использование «hypogenic». Результаты валидации, показывающие, какие гипотезы хуже работают на определенных поднаборах данных

Ожидаемый результат:

Refined Hypothesis 1: When feature_X > threshold AND feature_Y is low, label_A is more likely (updated from original to account for interaction effect).
Refined Hypothesis 3: The linguistic pattern in feature_W is more predictive when combined with metadata about source type.

Аудит безопасности

Низкий риск
v6 • 1/21/2026

This scientific hypothesis generation skill was scanned with 126 potential issues detected. After evaluation, all findings are false positives: environment variable references for API keys follow security best practices; hardcoded URLs are legitimate documentation links; shell command examples are user setup instructions; no actual cryptographic code or command-and-control patterns exist. The skill makes normal LLM API calls for hypothesis generation, which is expected functionality.

3
Просканировано файлов
2,075
Проанализировано строк
2
находки
6
Всего аудитов

Факторы риска

Оценка качества

41
Архитектура
100
Сопровождаемость
87
Контент
20
Сообщество
90
Безопасность
87
Соответствие спецификации

Что вы можете построить

Исследование академических гипотез

Генерируйте и тестируйте множество гипотез о паттернах в наблюдательных данных, например, обнаружение обмана в тексте или выявление индикаторов психического здоровья из постов в социальных сетях.

Обнаружение паттернов в предметной области

Исследуйте эмпирические связи в табличных наборах данных для таких приложений, как анализ контента, предиктивное моделирование или исследование классификации.

Генерация гипотез на основе литературы

Объединяйте существующие научные статьи с эмпирическими данными для создания обоснованных гипотез, которые расширяют или проверяют научные теории.

Попробуйте эти промпты

Генерация начальных гипотез из данных
Analyze the following data samples and identify patterns in the features and labels. Generate {num_hypotheses} specific, testable hypotheses that could explain these patterns. Each hypothesis should be concrete and falsifiable.
Уточнение существующих гипотез
Review the following hypotheses and the validation results. Identify which hypotheses are underperforming and generate improved versions that better explain the challenging examples. Focus on specificity and testability.
Интеграция выводов из литературы с данными
Based on the following research paper insights: {paper_insights}, and the observed data patterns: {data_observations}, generate hypotheses that combine theoretical foundations with empirical findings.
Проверка релевантности гипотезы
Given the hypothesis: {hypothesis}, and the data sample: {data_sample}, evaluate whether this hypothesis is relevant and testable for this dataset. Provide specific reasoning.

Лучшие практики

  • Начните с чистого набора данных в формате HuggingFace с правильно названными текстовыми признаками и метками
  • Используйте минимум 10-20 гипотез для всестороннего исследования пространства паттернов
  • Итеративно уточняйте гипотезы на основе результатов валидации, а не генерируйте все сразу
  • Объединяйте выводы из литературы с гипотезами на основе данных для более обоснованных теоретических рамок

Избегать

  • Использование наборов данных, не соответствующих требуемому формату HuggingFace с правильным именованием ключей
  • Генерация слишком малого количества гипотез и пропуск важных связей паттернов
  • Пропуск итеративного процесса уточнения и принятие начальных гипотез
  • Запуск без правильной конфигурации API или настройки кэша для управления затратами

Часто задаваемые вопросы

В каком формате должен быть мой набор данных?
Наборы данных должны соответствовать формату HuggingFace с файлами named <TASK>_train.json, <TASK>_val.json и <TASK>_test.json. Каждый файл должен содержать text_features_1 через text_features_n (списки строк) и label (список строк).
Какие провайдеры LLM поддерживаются?
Hypogenic поддерживает модели OpenAI GPT, модели Anthropic Claude и локальные LLM через совместимые API. Настройте предпочитаемого провайдера в файле config.yaml.
В чем разница между методами HypoGeniC, HypoRefine и Union?
HypoGeniC генерирует гипотезы исключительно из данных. HypoRefine объединяет выводы из литературы с эмпирическими паттернами. Методы Union объединяют гипотезы только из литературы с выводами фреймворка для полного охвата.
Сколько гипотез мне следует генерировать?
Фреймворк обычно генерирует 10-20+ гипотез. Больше гипотез исследуют больше пространства паттернов, но увеличивают затраты на API. Начните с 20 и корректируйте в зависимости от результатов валидации.
Нужен ли мне Redis для кэширования?
Redis опционален, но рекомендуется для снижения затрат на API во время итеративных экспериментов. Он кэширует ответы LLM, чтобы избежать избыточных вызовов для одинаковых запросов.
Каковы вычислительные требования?
Базовое использование требует минимальных ресурсов только с Python и pip. Для обработки литературы с разбором PDF вам понадобится GROBID как сервис. Для использования локального LLM рекомендуются ресурсы GPU.

Сведения для разработчиков

Автор

K-Dense-AI

Лицензия

MIT license

Ссылка

main

Структура файлов