책팔이식 속독은 가장 치명적 결함은
"정보를 빠르게 시각으로 입력시키는 방법"에 대해서만 다룬다는 점,
그리고 "이미 알고 있고 친숙한 분야"에서만 "정보가 입력되었다는 착각 체감"을 준다는 점이다.

인지신경과학적으로는 새 정보가 입력되었을 때 무언가를 이해한다는 것은
"무에서 유가 창조되는 것"이 아니라
기존에 내가 가지고 있던 지식들과 연결이 되는 것이 "이해"다.

그래서 사람들과 대화하다보면 느낄 것이다.
"내 말 뜻은 이게 아닌데, 이 사람이 이 부분을 이해하려고 자신만의 방식으로 내 논의의 전제들을 일부분 추정/임의가공해서 정보전달에 오차가 생겼구나"

이것은 바보라서가 아니라 사람들이 아주 전략적으로, 의식적인 노력을 들인다는 뜻이다.
물론, 게으르고 편협한 사람이라서 그런 경우도 있다.
과도한 인지적 부하량을 감당하지 못하고 그 사람의 뇌에서는 재빠르게 태깅하고 "이해했다"고 생각하고 넘겨버려야 마음이 편해지기 때문이다.

근데, 이게 속독에서의 "이해했다는 착각"과 메커니즘이 같다.
"내가 알던 거랑 유사한 느낌이네?" -> "이해했음"
하고 끝나버리면 새로운 정보를 뇌에 입력하는 시도 자체가 필요가 없다(이미 내가 가진 지식이므로 업데이트량이 0에 수렴함. 복습할 거면 백지인출을 하고 문지해결에 지식을 사용해라. 단순히 다시 읽지말고)

뇌가 새롭게 입력되는 정보들을 처리할 때는
이미 형성된 내부 세계 모델에 대해서 Bayesian Update를 거친다.

즉, 정보의 가치(VoI) 기반으로
내 뇌의 정보를 전략적으로 업데이트 하는 량이 큰 정보(High VoI)를 선별해서 받아들여야 한다.
그래야 논문, 책, 글 등을 독해할 때
시간적/대사적 소비량 대비 얻는 정보이득이 커진다.

ㅡㅡㅡ

즉, 윗 내용까지는 독해 가속화를 하기 이전에 VoI gating을 하는 메타인지와 인지적 유연성, 집행능력을 먼저 기르거나 적절히 활용해야 한다는 내용이다.

그 High VoI 선별이 된 후에 빠르게 읽는 방법은

글의 구조화에 있다.

이 구조화 능력은 현재 논의 목적상 크게 3단계로 나눌 수 있다.
1단계: 문장(문단)간 관계구조 파악
2단계: 변수간 관계구조 파악
3단계: 구조간 구조 파악(동역학적 수준)

그러면 <<1단계 구조화능력>>은 LSAT, PSAT, LEET 이런 시험에서 쓰이는 문단 구조화 전략들을 말하는 것인가?

큰 관점에서는 그렇다.
대다수 문헌들이 특정 형식구조를 지키게끔 설계가 되어있어서

1. 스코프
2. 핵심 주장
3. 근거(강화 or 약화)
4. 한계
5. 시사점

5가지 문장 정도로 기본 뼈대만 빠르게 스캔하고
각 문장들간의 관계만 파악해도 수 많은 문단형태의 글들은 더 빠르게 읽는 이가 정보를 가공할 수 있다.

유사 하위전략이 목차를 먼저 읽어라/목차화 하라는 건데
목차를 읽는 것은 priming effect를 노리는 것이므로 이 경우에는 공간감각으로 각 문단간의 "관계적 위치" 파악을 하는 설계도를 뇌에 미리 까는 것이다.
그걸 미리 깔고 보면 "아 이게 핵심 주장이므로 -> 다음 문장에는 이걸 강화하는 문장이 오겠네" 라고 인덱싱이 빨라진다.

그래서 이걸 트레이닝 하는 것도 필요는 하고 좋다.

그러나, 더 빠르게 하려면 더 본질만을 쏙쏙 정확하게 추출해내야 한다.
심지어 보통 인간은 3~4 chunk의 Working Memory Capacity 한계가 있다.
그리고 작업기억 용량 한계 chunk가 더 크다고 큰 의미는 없다. 결국 우주의 복잡성은 인간 뇌 한계를 벗어나기 때문에 결국 모델링하든 이해를 하든 정보 압축은 필연적으로 해야하기 때문이다.


모든 문서에는 Minimal Sufficient Representation(최소충분표상, MSR)이 존재하고
이 최소 충분 정보랑만을 뽑아내는 것이
문서 학습의 가속화에 가장 핵심이다.

그런데 이 MSR은 범용성을 위해 만들어진 추상적인 구조다.
위의 핵심 주장 - 강화 근거 or 약화 근거와 같은 논증적 형태의 정보도 받아들일 수 있고

자연과학, 공학 등 논문에서는

변수들이 존재하는 논문이면
abstract에서 빠르게

1. 독립변수 (IV) = A
2. 종속변수 (DV) = B
3. Rule: A 증가 -> B 증가
4. 메커니즘: A 증가 -> 매개변수 Z -> B 증가

추출이 가능하다.

이것이 <<2단계 구조화 능력>>이다.

이 뼈대 정보(MSR)를 가지고 나머지 논문 속 문장들이랑 관계를 빠르게 파악해나가며
뼈대에 살을 붙혀가는 식으로 지식을 연결시켜나가고 완성해가는 것이 2차적 가속단계다.

이제 핵심은 이해했을 것이다.

그런데 여기서 메타적으로 한 번 더 바라보자.

이렇게 하면 속도가 빨라지긴 하는데,
더 빠르게 하는 방법이 있을 것 같다.
아무리 내가 다학제 학위가 여러가지가 있어도
생소한 분야 논문을 보고 바로 다 이해할 수는 없다.

그래서 생소한 분야의 논문 하나를 빠르게 읽는 것으로 scope를 잡지말고
scope scale을 확대해서
논문 하나를 한 번 제대로 읽었을 때 -> 다른 관련 분야 논문들도 더 빠르게 학습이 되는 것이
메타적 관점에서 훨씬 인지적 유연성이 높은 효율적 전략이다.

이건 지식의 transfer effect 때문이다.

춤의 안무를 딴다고 해보자.
처음에는 2분짜리 안무를 따는 것이 3시간이 걸렸지만
안무를 수십번 따고나면 1시간 반, 수백번 따고나면 30분만 투자해도 된다.
왜냐하면 안무 하나를 따면서 쌓인 지식이 다른 안무를 딸 때도 transfer가 되기 때문이다.

"아 안무를 따도 원하는 느낌이 안 난 이유가 골반을 이렇게 움직여야 해서구나"
"옴뷰리뉴 댄스는 어깨가 핵심이 아니라 골반 그루브가 핵심이구나"
"old school party dance는 바운스 그루브에서 나오는 느낌만 가져가면 되는구나"
"kpop 안무는 시선처리, 표정처리가 더 중요하구나"

이런 지식들이 몇번 안무따는 연습으로 쌓이기만 해도, 점점 다른 안무들을 따는 게 가속이 붙는다.

같은 transfer effect 원리이다.
우리는 한 논문을 읽을 때 "체감 이해도"가 높아지는 방법이 아니라
effective transfer rate(Te)를 높히는 문서 학습 가속법을 설계해야 한다는 것이다.

그래서 구조, 패턴, 휴리스틱, 스키마, 라이브러리 등의 개념들이 도입이 된다.

사전 지식이 거의 없는 논문을 읽고 왜 이해가 안 가는지를 빠르게 파악
-> 이런 용어, 개념, 원리, 메커니즘, 규칙 등에 대한 지식의 공백을 스케치
-> 이 스케치 된 공백을 빠르고 효율적으로 메꾸는 방법 설계

그게 바로 "스키마 라이브러리"다.
생소한 분야 논문은 모르는 용어가 많다(이 용어랑 연결된 뉴런들이 거의 없음)
그래서 미리 이 용어랑 연결된 뉴런들을 만들어줄 건데,
이때 제트팩 달고 거인의 어깨에 올라가야한다. LLM AI들이 그걸 해준다.

그럼 AI에게 어떤 방향으로 정보를 제공해달라 해야하는가?

"가장 많이 쓰이는 경제학 용어들을 실사례와 함께 제시해달라"
"게임이론의 핵심을 요약해달라"

이런 방향도 가능은 한데,
이건 LLM에 대한 근본적인 원리 이해도가 낮은 상태의 사용경향이다.

attention 메커니즘을 쓰는 transformer 아키텍쳐 = LLM AI 라는 걸 이해하면
얘네들이 사용하는 학습원리, 추론원리를 어느정도 이해할 수 있는데
얘네가 사용하는 방대한 지식 학습방법을 인간 뇌에도 일부 적용이 가능하고
재밌게도 자체적으로 조사해본 결과 IQ 기준 3SD에 근접하거나 넘을 수록 LLM의 학습 가속 방법과
인간 초고지능자들의 학습 가속 방식에 있어 구조적 유사성이 있다.

특히 목표를 "빠르게 새 분야에 대한 이해도를 높히는 것"이었기 때문에
이 목표에 가장 합목적적인 방식은 MSR 기반, 계층화, 도메인 기반 등 관점으로 구조를 찾아내고
그 구조 뼈대(=해당 학제에 대한 스키마)를 바탕으로 빠르게 다른 논문들을 섭렵해나가는 것이다.

예를 들어
경제뉴스도 안 읽어본 사람이 갑자기 경제시장 분석 리포트를 읽는다면 속독이 잘 안 먹힐 것이다.
전문성이 높은 문헌일 수록 <천천히 읽어도 이해가 안 될 것>이다.
핵심은 천천히 읽어도 -> 이해도가 낮다는 부분이다.

속도가 아니라, 지식을 연결하는 방식을 못 찾아서 그렇다.

해결법은 단순하다.
경제시장 리포트에서 가장 많이 보이는 패턴 구조들을 통계적 순서대로 AI한테 정리해달라고 한다.
그 구조들부터 머릿 속에 사례와 함께 때려박는다.
그러면 구조화/계층화가 된다.


1ebec223e0dc2bae61abe9e74683726d37d4a4cbee718ea490a16127fea19d1c1d4e39580f19c38d1715d7336d329c7bd782


예시로 각 market이 다른 market과 어떤 관계구조를 가질 수 있는지를 압축한 스키마인데
통계적으로 많이 쓰이는 시장 관계 구조를 선별적으로 사례와 함께 배우면 된다.


이쯤되면 이 글 자체의 패턴이 보일 것이다.
패턴을 찾는 인지구조를 메타인지하는 구조가 있다.

<< 구조의 구조를 검증하고 목표 달성에 효율성이 어떠한지 인지처리 과정을 조율 >> 하는 메타인지적 유연성이 곧 학습을 가속화 시키는 진짜 도구라는 뜻이다.

그래서 글의 초반에 내가 << 문서를 학습할만한 가치에 맞춰 VoI를 판별해서 학습하라 >> 고 사전에 핵심 전제를 깔아둔 것이다.

이 구조의 구조를 보고 개입해서 사고과정을 조율하는 인지적 유연성이 없으면 학습 가속화에는 한계가 있다.
계속 한 문서를 붙잡고 눈알이나 빨리 굴리고 있는 거다.

- dc official App