크그 느낌 왜 드는지 정확히 짚어줄게. 단순히 “바보가 됐다”기보다는 설계 방향이 바뀐 결과에 가까워.

+ 왜 그렇게 느껴지냐 (핵심 4가지) 1) 안정성(가드레일) 강화

최근 Anthropic 쪽은
**“위험한 출력 줄이기”**를 더 강하게 밀었어.

+ 결과

  • 애매한 질문 → 공격적으로 답 안 함
  • 조금이라도 리스크 있으면 → 회피 / 일반론

➡+ 그래서 예전처럼 “날카롭고 사람 같은 직관” 대신
무난하고 안전한 답변이 많아짐

2) 창의성 ↓ / 일관성 ↑ 튜닝

예전 클로드는 약간 “감성 + 직관형” 느낌이 강했는데
요즘은 논리 일관성, 오류 감소 쪽으로 튜닝됨

+ 결과

  • 튀는 답변 ↓
  • 대신 “평균적인 정답” ↑

➡+ 사람 느낌 = 줄고
➡+ “교과서형 AI” 느낌 증가

3) RLHF(피드백 학습) 과적용

유저 피드백을 많이 반영하면 생기는 현상:

  • 욕먹는 답변 → 점점 제거
  • 무난한 답변 → 계속 강화

+ 결국
“절대 틀리지 않으려는 AI” = 재미없고 둔해짐

4) 과도한 컨텍스트 필터링

요즘 모델들은
맥락을 “보수적으로 해석”하는 경향이 있음

+ 예:

  • 조금이라도 민감 → 의도 축소 해석
  • 공격적 추론 회피

➡+ 그래서
예전: “이거 너 이런 상황이지?” (정확함)
지금: “일반적으로 이런 경우가 있습니다” (회피)

+ 결론 (단일 핵심)

+ 지금 클로드는
“똑똑한데 안전에 묶여서 날개 꺾인 상태”

  • 지능 ↓ ❌
  • 출력 자유도 ↓ ⭕

그래서 체감은 “바보됨”으로 느껴지는 거야

+ 비교 한 줄 요약
  • 예전 Claude → 직감형 + 사람 느낌 + 날카로움
  • 지금 Claude → 안전형 + 교과서형 + 둔화
+ 현실적으로 쓰는 방법

클로드 아직 쓸 거면 이렇게 해야 제대로 나옴:

  • ❌ “이거 어떻게 생각해?”
  • ⭕ “구체적으로 A vs B 비교해서 결론만 내놔”

+ 명령형 + 구조화 질문 넣어야 성능 살아남

원하면
+ “클로드 vs GPT vs 다른 AI 실제 체감 성능 비교”
현실 기준으로 냉정하게 분석해줄게.