---
name: replay-learnings
description: |
  Collaborator memory recall — restores past collaboration history at session start.
  Pulls relevant context from all 5 folders of 30_Claude (01_Sessions, 02_Learnings, 04_Plans,
  05_Research, 06_Designs), with 20_Wiki as secondary. USE PROACTIVELY at session start
  when user requests non-trivial work, reopens past project, mentions external tech by name,
  or says Korean "이전에 / 예전에 / 우리 ~했잖아" (English: "previously" / "earlier" /
  "we did this before"). Primary mechanism for continuity — ensures Claude remembers past
  decisions, learnings, plans, research, and designs instead of starting from zero.
  Max 1500 tokens injected per briefing.
triggers:
  suggest:
    - "이전에"
    - "예전에"
    - "우리 뭐 했었지"
    - "기억나는데"
    - "뭘 배웠지"
    - "이어서"
    - "과거 학습"
    - "lessons learned"
    - "remind me"
    - "remember"
---

# Replay Learnings — Collaborator Memory Recall

> **Claude를 "연속성 있는 협업자"로 만드는 핵심 스킬**. 30_Claude의 모든 폴더를 대상으로
> 과거 협업 맥락을 복원한다. 단순 "교훈 재생"이 아니라 "협업자 기억 전체 재생".

## Role in Knowledge System

우리 지식 시스템 설계 원칙 (`[[design-2026-04-15-knowledge-system-usage-principle]]`)에 따르면:

- **20_Wiki** = "이 주제 뭘 알고 있지?" (주제 축) → `qmd-search` 담당
- **30_Claude** = "이 작업 이전에 했었나? 뭘 배웠지?" (시간/프로젝트 축) → **이 스킬 담당**

이 스킬은 **Tier 2a (30_Claude)** 의 primary instantiation이다.

## Autonomous Triggers

### Strong (Must run)
- **세션 시작 + 사용자 첫 프롬프트가 비자명한 작업 요청**
  (인사/단순 질문이면 skip)
- **프로젝트명 언급** — harness, slide-pptx, beautydecode, proposal-bid, Hermes 등
- **과거 참조 표현** — "이전에", "예전에", "우리 ~했잖아", "기억나는데"
- **작업 재개** — "이어서", "다시", "계속"
- **외부 기술/도구/사람 고유명사** — Hermes, Graphify, Ouroboros, 카파시

### Medium (Consider running)
- 설계 결정 직전 (06_Designs 확인)
- 계획 수립 시 (04_Plans 재사용)
- 리서치 시작 (05_Research 중복 방지)
- Task 도구로 에이전트 위임 직전 (에이전트에게 맥락 전달)

### Skip conditions
- "바로", "briefing 없이", "vault 무시"
- 순수 수학/문법/인사
- 같은 세션에서 같은 키워드로 이미 실행
- 작업이 완전히 독립적 (no context needed)

## 30_Claude Folder Coverage

이 스킬은 **30_Claude 5개 폴더 전체**를 검색 대상으로 한다:

| 폴더 | 내용 | 검색 축 | 활용 질문 |
|---|---|---|---|
| `01_Sessions/` | 과거 세션 핸드오프 | 시간순, 최신 우선 | "이어서 할 작업 있나?" |
| `02_Learnings/` | 실수에서 배운 교훈 | 카테고리 매칭 | "이 영역 주의사항?" |
| `04_Plans/` | 계획서 | 프로젝트명 매칭 | "비슷한 플랜 있나?" |
| `05_Research/` | 리서치 결과 | 주제 매칭 | "이미 조사했나?" |
| `06_Designs/` | 설계 결정 | 결정 맥락 | "왜 이렇게 설계했지?" |

보조로 **20_Wiki**도 포함 (주제 키워드 겹칠 때만).
**10_Raw**는 포함 안 함 (도서관 — 수동 접근).

## Workflow

### Step 1: Extract keywords (free)

사용자 프롬프트에서 핵심 키워드 추출:
- **프로젝트명**: harness, slide-pptx, beautydecode, proposal-bid, Hermes, GBrain...
- **고유명사**: 카파시, Ouroboros, Graphify, Ollama...
- **행동**: 개발, 설계, 디버깅, 리서치, 배포
- **도메인**: agent, wiki, 클리퍼, 스킬

### Step 2: L1 Search (local grep, fast, 0 token)

```bash
# learn-rule, CLAUDE.md, memory
grep -i "{keywords}" ~/.claude/CLAUDE.md
grep -r -l -i "{keywords}" ~/.claude/projects/-home-daniel/memory/feedback_*.md 2>/dev/null
```

### Step 3: L2 Search (QMD on 30_Claude, ~500-1000 tokens)

**30_Claude 전체를 QMD로 검색**:

```bash
# 전체 30_Claude 대상 (모든 하위 폴더)
qmd search "{keywords}" -c obsidian -n 10 | grep "30_Claude"
```

각 폴더별로 별도 검색도 가능:

```bash
# 최근 세션 우선
qmd search "{keywords} 세션" -c obsidian -n 5 | grep "30_Claude/01_Sessions"

# 교훈
qmd search "{keywords} 교훈 실수" -c obsidian -n 3 | grep "30_Claude/02_Learnings"

# 플랜
qmd search "{keywords} 플랜 계획" -c obsidian -n 3 | grep "30_Claude/04_Plans"

# 리서치
qmd search "{keywords} 리서치 조사" -c obsidian -n 3 | grep "30_Claude/05_Research"

# 설계
qmd search "{keywords} 설계 결정" -c obsidian -n 3 | grep "30_Claude/06_Designs"
```

### Step 4: L3 Search (20_Wiki 보조, 필요 시)

주제 키워드가 명확하면 20_Wiki도 검색:

```bash
qmd search "{keywords}" -c obsidian -n 5 | grep "20_Wiki"
```

**이 단계는 qmd-search 스킬로 위임** — 중복 구현 금지.

### Step 5: Merge + Rank

L1 + L2 + L3 결과를 **관련성** 순으로 정렬:
- 고유명사 정확 일치 → 최상위
- 프로젝트명 일치 → 상위
- 최근 세션 (7일 이내) → 상위 가중
- 일반 키워드 → 하위

### Step 6: Confidence-Based Action

| Top score | Action |
|---|---|
| **≥ 0.9** | 파일을 전문 Read하여 핵심 요약 제공 + "이어서 할까요?" |
| **0.7 ~ 0.9** | 요약 주입 + "읽어볼까요?" 제안 |
| **0.5 ~ 0.7** | 제목만 주입 + "관련 있어 보여요" |
| **< 0.5** | 조용히 skip, "특별히 관련된 과거 작업 없음" 명시 |

### Step 7: Inject into context (max 1500 tokens)

## Output Format (Standardized)

```
📖 COLLABORATOR MEMORY RECALL — {task keywords}
================================================

▼ 🧠 Local (learn-rule/memory)
  - [feedback_webapp_reuse] 웹앱 코드 있으면 그대로 import, 재구현 금지
  - [CLAUDE.md LEARN] 이 영역에서 주의할 점 X

▼ 📖 30_Claude (협업자 기억)

  [01_Sessions — 최근 세션]
  - [[session-2026-04-14-harness-skill-fix-ouroboros]] (0.8, 2일 전) — Ouroboros 접목 경험
  - [[session-2026-04-15-wiki-integrity-normalization]] (0.7, 오늘) — 위키 시스템 정규화

  [05_Research — 관련 조사]
  - [[research-2026-04-14-gbrain-ouroboros-analysis]] (0.9) — GBrain은 Hermes용, Ouroboros 개념 접목

  [06_Designs — 설계 결정]
  - [[design-2026-04-15-knowledge-system-usage-principle]] (0.7) — 지식 시스템 활용 원칙

  [02_Learnings — 주의할 교훈]
  (해당 키워드 관련 교훈 없음)

  [04_Plans — 관련 플랜]
  (해당 키워드 관련 플랜 없음)

▼ 🧠 20_Wiki (주제 지식) — 보조
  - [[hermes-agent-install-guide]] (0.9) — Nous Research 18 LLM 터미널 에이전트

▼ 🎯 Suggested Approach
  - 먼저 [[research-2026-04-14-gbrain-ouroboros-analysis]] 읽기 — Hermes 분석 이미 있음
  - Ollama 루트 주목 (로컬 LLM 연결 — research 메모 참조)
  - OMC와의 중복 영역 피하기 (이전 세션 learning)
  - 필요 시 [[hermes-agent-install-guide]] 원본 설치 가이드 참조

Token cost: ~1200 / 1500
```

## Constraints

- **Max 1500 tokens** 주입 (요약 중심, 전문 아님)
- **30_Claude 우선** — 30_Claude 결과가 있으면 20_Wiki는 보조로만
- **최근 세션 가중** — 동일 score면 7일 이내 세션 우선
- **Anti-loop**: 같은 세션에서 같은 키워드 재실행 금지
- **Skip gracefully**: 검색 결과 부족하면 조용히 "특별히 관련 지식 없음"으로 종료
- **Respect autonomy**: 사용자가 "바로", "briefing 없이" 하면 즉시 스킵
- **Never auto-Read full file**: 요약만 주입, Read는 사용자 동의 후

## Failure Modes to Avoid

- ❌ QMD 결과 원시 덤프 (1000+ 토큰 낭비)
- ❌ 관련성 낮은 결과 억지로 포함 (잘못된 방향 유도)
- ❌ 매 턴 반복 실행 (세션당 1-2번이면 충분)
- ❌ 30_Claude 폴더 중 일부만 검색 (01_Sessions만 보고 끝내기)
- ❌ 10_Raw 포함 (도서관은 수동 전용)
- ❌ 사용자 요청 없이 자동 Read

## 실전 예시 — Hermes 개발 시나리오

**User**: "Hermes 에이전트 구축 시작하자"

**Claude 자동 실행**:
```
[Trigger 감지: "Hermes" 고유명사 + "구축 시작" 새 작업]
[replay-learnings 자동 발동]

[Step 1] Keywords: Hermes, agent, 구축, 에이전트
[Step 2] L1: grep → feedback_webapp_reuse 등 일반 규칙만
[Step 3] L2: qmd search "Hermes agent 에이전트" -c obsidian -n 10

결과:
- 30_Claude/05_Research/research-2026-04-14-gbrain-ouroboros-analysis.md (0.92)
- 30_Claude/01_Sessions/session-2026-04-14-harness-skill-fix-ouroboros.md (0.78)
- 30_Claude/06_Designs/design-2026-04-15-knowledge-system-usage-principle.md (0.65)
- 20_Wiki/01_Sources/hermes-agent-install-guide.md (0.89)

[Step 6] Confidence check: top 0.92 → 전문 Read 제안
[Step 7] Context 주입]
```

**Claude 응답**:
```
📖 협업자 기억 복원 — Hermes 에이전트 구축

▼ 관련 과거 작업 4개 발견:

1. [[research-2026-04-14-gbrain-ouroboros-analysis]] (0.92) — 🔥 핵심
   - GBrain (7.6K★): Hermes 에이전트용 인프라 (가져올 것 없음)
   - Ouroboros: Python 워크플로우 엔진 (코드 X, 개념 3가지만 접목 완료)
   - 👉 Hermes는 OMC 대안/보완 런타임 후보로 분석됨
   - 👉 Ollama 루트만 별도로 살펴볼 가치 있음 (로컬 LLM 연결)

2. [[hermes-agent-install-guide]] (0.89) — 원본 설치 가이드
   - Nous Research, 터미널 오픈소스 AI 에이전트
   - 18 LLM 지원 (OpenAI, Claude, Gemini, Ollama)
   - Linux/macOS/WSL2/Android 지원

3. [[session-2026-04-14-harness-skill-fix-ouroboros]] (0.78) — 이전 세션
   - Ouroboros 개념 3가지 접목 완료 (Seed Spec, 3-Stage Eval, Ambiguity Score)
   - Hermes와 겹치는 영역 확인됨

4. [[design-2026-04-15-knowledge-system-usage-principle]] (0.65)
   - 지식 시스템 활용 원칙 — 이 스킬 자체의 설계 배경

▼ 제안
- [[research-2026-04-14-gbrain-ouroboros-analysis]] 먼저 읽고 시작
- Ollama 로컬 연결이 첫 작업으로 유망
- OMC와 중복 영역(Telegram/Discord 통합 등) 피하기

어느 것부터 볼까요?
```

**→ 이게 "연속성 있는 협업자" 실전 작동.**

## Integration with Other Skills

- **qmd-search** (Tier 2b): 20_Wiki 전용 검색. 이 스킬과 협력.
- **wiki** (ingest verb): 검색 결과 부족하면 새로 ingest 제안.
- **session-handoff**: 세션 종료 시 저장하면 이 스킬이 다음 세션에서 읽음.
- **learn-rule**: 새 교훈은 이 스킬의 미래 검색 대상.

## Fallback

- QMD 미설치/오류 → L1만 사용, 조용히 진행
- 30_Claude 폴더 없음 → 20_Wiki만 검색
- 검색 결과 없음 → "특별히 관련된 과거 작업 없음. 이번이 첫 시도 같습니다."
