### AI에게 "너는 어떻게 생각해?"라고 묻고 계신가요?
한 가지 질문이 모든 것을 바꿉니다
2025년 12월 7일, 조회수 380만 회를 기록한 트윗 하나가 AI 커뮤니티를 뒤흔들었어요. OpenAI 공동창업자이자 테슬라 AI 디렉터를 역임한 안드레이 카파시(Andrej Karpathy)가 X(구 트위터)에 올린 짧은 글이었지요.
"LLM을 존재(entity)가 아니라 시뮬레이터(simulator)로 생각하세요."
단 한 줄의 문장이었지만, 이 말 속에는 대부분의 사람들이 AI를 쓰면서 놓치고 있는 결정적 관점의 전환이 담겨 있었어요. 카파시는 같은 트윗에서 구체적인 예시까지 제시했어요. "어떤 주제를 탐구할 때 'xyz에 대해 너는 어떻게 생각해?'라고 묻지 마세요. 거기에 '너'는 없습니다. 대신 'xyz를 탐구하기에 좋은 전문가 그룹은 누구일까? 그들이라면 뭐라고 할까?'라고 물어보세요."
이 조언은 단순한 프롬프트 팁이 아니에요. AI라는 도구의 본질을 이해하는 방식 자체를 재설정하라는 제안이에요. 그리고 놀랍게도, AI를 매일 사용하는 사람들 중에서도 이 차이를 제대로 인식하는 비율은 극히 낮아요. 많은 사람들이 ChatGPT나 Claude를 열고, 마치 옆자리에 앉은 동료에게 말하듯 "이거 어떻게 생각해?"라고 물어요. 자연스러운 행동이에요. 화면에 채팅 창이 떠 있고, 상대방이 인간의 언어로 대답하니까요. 하지만 바로 그 자연스러움이 함정이에요.
문제는 이 방식이 '틀렸다'는 게 아니에요. 돌아오는 답변이 나쁘진 않거든요. 문제는 훨씬 더 좋은 답을 받을 수 있는데, 대부분의 사람들이 그 가능성을 모른 채 평범한 답에 만족하고 있다는 거예요.
카파시가 왜 이런 이야기를 했는지, 그리고 이 관점의 전환이 실제로 AI 활용의 질을 어떻게 바꾸는지 살펴보겠습니다.
존재가 아니라 시뮬레이터,
관점의 전환이 필요한 순간
AI에 대한 가장 흔한 오해는 AI를 '대화 상대'로 인식하는 거예요. 채팅 인터페이스가 카카오톡이나 메신저처럼 생겼으니 자연스러운 착각이지요. "너는 이걸 어떻게 생각해?" "네 의견은 뭐야?" 이런 질문을 던지는 건, 마치 AI 안에 생각하는 누군가가 있다고 전제하는 셈이에요.
사람들이 이렇게 느끼는 데는 이유가 있어요. AI 기업들이 제품을 설계하는 방식 자체가 이런 환상을 부추기거든요. 대화형 인터페이스, 이름 붙여진 AI 캐릭터, "무엇이든 물어보세요"라는 슬로건. 이 모든 것이 AI 안에 '누군가'가 있다는 착각을 강화해요. OpenAI의 ChatGPT라는 이름 자체가 '채팅'이라는 단어로 시작하지요. 'Chat'이라는 프레이밍은 처음부터 사용자에게 "이건 대화 상대야"라는 멘탈 모델을 심어줘요.
카파시의 핵심 주장은 명쾌해요. LLM(대규모 언어 모델, Large Language Model)은 인격체가 아니라 시뮬레이터라는 거예요. LLM은 인터넷에 존재하는 방대한 텍스트를 학습한 뒤, 주어진 맥락에서 다음 토큰(token)—단어의 조각—을 예측하는 확률 엔진이에요. 어떤 질문을 받으면 "이 맥락에서 가장 그럴듯한 다음 단어는 무엇일까?"를 반복적으로 계산하는 거지요.
이건 꽤 근본적인 차이예요. 사람은 경험을 축적하고, 시간을 들여 가치관을 형성하며, 그 위에서 의견을 제시해요. 20년 동안 금융 시장을 분석해온 애널리스트의 의견에 무게가 실리는 이유는, 그 사람이 2008년 금융위기를 온몸으로 겪었고, 수천 건의 기업 분석을 직접 해봤고, 그 과정에서 자신만의 판단 프레임을 만들어왔기 때문이에요.
카파시의 표현을 빌리면, LLM은 xyz라는 주제에 대해 "한동안 깊이 생각하고, 시간이 흐르면서 자신만의 의견을 형성"한 적이 없어요. LLM에게는 어제도 없고 내일도 없어요. 매번 대화가 시작될 때마다 백지에서 출발하지요. 오늘 아침에 나눈 대화의 맥락이 오후의 대화에 영향을 주지 않아요. 메모리 기능이 추가되고 있긴 하지만, 그것조차 '기억'이 아니라 프롬프트에 이전 정보를 삽입하는 기술적 장치에 불과해요.
카파시는 2025년 연말 리뷰에서 이 개념을 더 확장했어요. LLM의 지능을 설명하기 위해 "유령 소환(summoning ghosts)"이라는 은유를 사용한 거예요.
"우리는 동물을 진화시키는 게 아니라 유령을 소환하는 겁니다."
이 은유가 중요한 이유는, 생물학적 지능과 LLM의 지능이 최적화 방향 자체가 다르다는 점을 선명하게 드러내기 때문이에요. 인간의 뇌는 정글에서 부족의 생존을 위해 최적화되었어요. 맹수의 발소리를 감지하고, 동료의 표정에서 적대감을 읽어내고, 내일의 먹거리를 계획하는 데 수백만 년의 진화적 압력이 작용했지요.
반면 LLM의 신경망은 완전히 다른 방향으로 최적화되었어요. 인류의 텍스트를 모방하고, 수학 문제에서 보상을 받고, LM Arena에서 사용자의 추천을 받는 방향으로요. 인간의 뇌가 '실존적 압력' 아래서 깎여나간 조각품이라면, LLM은 '통계적 보상' 아래서 빚어진 시뮬레이션 엔진이에요.
이 차이를 이해하는 순간, AI와 대화하는 방식이 근본적으로 달라져요. AI를 '아는 친구'가 아니라 '만능 연기자'로 바라보게 되거든요. 연기자에게 "너는 이 상황을 어떻게 생각해?"라고 물으면 애매한 표정만 짓겠지만, "햄릿으로서 이 순간에 무슨 감정을 느끼겠어?"라고 물으면 소름 끼치는 연기가 터져나오는 것과 같은 이치예요.
"너"를 부르면 돌아오는 건
평균의 유령이에요
그렇다면 "너는 어떻게 생각해?"라고 물었을 때 AI는 실제로 어떤 과정을 거칠까요? 카파시는 이 메커니즘을 정확하게 설명했어요.
"만약 '너(you)'라는 표현을 써서 억지로 답하게 만들면, LLM은 파인튜닝(fine-tuning) 데이터의 통계가 암시하는 성격 임베딩 벡터(personality embedding vector)를 채택하고, 그걸 시뮬레이션할 뿐입니다."
성격 임베딩 벡터. 다소 기술적인 용어지만, 핵심은 단순해요. AI가 학습 과정에서 "도움이 되고, 정중하며, 무난한 응답을 하는 조력자" 캐릭터를 부여받았다는 뜻이에요. "너는 어떻게 생각해?"라고 물으면, AI는 이 기본 캐릭터를 꺼내 들고 가장 안전하고 무난한 답을 생성해요.
이 기본 캐릭터가 어떻게 만들어지는지 조금 더 들어가 보면요. LLM은 사전 훈련(pre-training)을 통해 인터넷의 방대한 텍스트를 학습한 뒤, 사후 훈련(post-training)이라는 과정을 거쳐요. 사후 훈련에서는 인간 평가자들이 "이 답변이 더 좋다, 저 답변이 더 좋다"라고 피드백을 주고, AI는 그 피드백에 맞춰 자신의 출력을 조정해요. 이 과정에서 "도움이 되고, 안전하며, 정중한" 기본 성격이 형성되지요.
카파시는 후속 트윗에서 한 발 더 나아갔어요.
"'너(you)' 시뮬레이션을 엔지니어링하는 데 분명히 많은 작업이 들어갑니다. 검증 가능한 문제에서 모든 보상을 얻고, 사용자로부터 추천을 받고, SFT(Supervised Fine-Tuning, 지도학습 미세조정)의 응답을 모방하는 성격 말이죠. 거기서 합성된 복합 성격이 나타나긴 합니다."
하지만 핵심은 이거라고 카파시는 강조했어요.
"그 '너'는 의도적으로 덧붙여지고(bolted on), 엔지니어링되고, 근본적으로는 토큰 시뮬레이션 엔진 위에 겹겹이 쌓인 레이어일 뿐이에요. AI와 대화하는 평범한 사람이 공감할 만한 방식으로 어떻게든 출현하고 시간에 걸쳐 구성된 마음(mind)이 아닙니다."
쉽게 비유하면 이래요. AI에게 "너"를 찾으면, 돌아오는 건 수억 개 텍스트 데이터의 통계적 평균값이에요. 마치 전국 설문조사에서 "한국인의 평균적 의견"을 구하는 것과 비슷하지요. "경제 전망을 어떻게 보십니까?"라는 질문에 대한 전국민 평균 응답이 "조심스럽게 낙관한다" 정도라면, AI의 기본 응답도 그런 느낌이에요. 나쁜 답은 아니지만, 날카롭지도 않고 깊지도 않아요.
여기서 진짜 아까운 점이 드러나요. AI가 가진 잠재력의 극히 일부만 쓰는 셈이거든요. LLM의 학습 데이터에는 노벨상 수상자의 논문도, 월스트리트 헤지펀드 매니저의 분석 보고서도, 20년 경력 소프트웨어 아키텍트의 코드 리뷰도, 퓰리처상 수상 기자의 탐사 보도도 들어 있어요. 이 모든 전문성이 압축되어 있는데, "너는 어떻게 생각해?"라는 질문은 그 방대한 전문성을 무시하고 "일반인 평균"을 달라고 요청하는 것과 같아요.
반면 카파시가 제안하는 방식—"이 주제를 탐구하기에 적합한 전문가 그룹은 누구일까?"—으로 접근하면, AI는 완전히 다른 모드로 작동해요. 특정 전문가의 관점, 특정 분야의 사고방식, 특정 맥락의 논리를 시뮬레이션하기 시작하거든요.
이건 현명한 전략이에요. 왜냐하면 LLM의 학습 데이터에는 수만 가지 전문 분야의 텍스트가 녹아 있기 때문이지요. "너"라는 모호한 호출어 대신, 구체적인 역할을 지정해주면 그 방대한 지식 창고에서 해당 영역의 데이터를 집중적으로 끌어올 수 있어요. 마치 도서관에서 "아무 책이나 추천해줘"가 아니라 "행동경제학 분야에서 2020년 이후 가장 영향력 있는 책을 추천해줘"라고 요청하는 것의 차이와 같아요.
배역을 주세요,
그러면 AI는 비로소 진짜 실력을 발휘해요
카파시의 통찰을 한마디로 요약하면 이래요. AI는 생각하는 게 아니라 '채널링(channeling)'하는 거예요. 다양한 관점을 시뮬레이션하는 거지요. 배우에게 배역을 주면 저장된 연기 레퍼토리가 깨어나듯, LLM에게 구체적인 페르소나를 설정해주면 내부에 압축된 방대한 지식이 훨씬 정밀하게 활성화돼요.
실제 적용 사례를 보면 이 차이가 선명해져요.
기존 방식: "주식 투자에 대해 어떻게 생각해?"
이렇게 물으면 AI는 "분산 투자가 중요합니다, 장기 투자를 추천합니다, 리스크 관리를 잊지 마세요" 같은 교과서적 답변을 내놓아요. 누구나 알고 있는, 그래서 누구에게도 실질적 도움이 되지 않는 답이지요.
카파시 방식: "이 투자 포트폴리오를 분석하기에 가장 적합한 전문가 그룹은 누구일까? 가치투자 전략가, 행동경제학자, 리스크 매니저가 있다면 각각 뭐라고 할까?"
이렇게 물으면 AI는 세 가지 서로 다른 렌즈로 같은 포트폴리오를 분석해요. 가치투자 관점에서의 저평가 종목 분석이 나오고, 행동경제학 관점에서의 투자 심리 편향 경고가 나오고, 리스크 관리 관점에서의 헤지 전략이 나오지요.
같은 AI, 같은 모델인데 질문 방식 하나로 답변의 차원이 달라지는 거예요. 이건 프롬프트 엔지니어링의 소소한 팁이 아니라, AI라는 도구의 작동 원리에 대한 근본적 이해에서 비롯되는 차이예요.
이 원리는 다른 영역에서도 똑같이 적용돼요. 글을 쓸 때 "이 글 좀 다듬어줘"보다 "뉴욕타임스 에디터, 카피라이터, 그리고 타겟 독자인 30대 마케터 세 사람이 이 글을 읽으면 각각 어떤 피드백을 줄까?"가 훨씬 풍부한 편집 의견을 끌어내요. 사업 전략을 검토할 때도 "이 전략 어때?"보다 "벤처 캐피탈리스트, 업계 10년차 대표, 그리고 마케팅 디렉터가 이 전략을 보면 각각 무엇을 지적할까?"가 더 실질적인 피드백을 만들어내지요.
핵심은 이거예요. AI에게 '누구의 눈'으로 볼 것인지를 알려주면, AI는 그 눈에 맞는 관점, 어휘, 분석 프레임을 자동으로 로드해요. "너"라는 빈 캔버스 대신, 구체적인 초상화를 요청하는 거지요.
유령의 라운드테이블,
LLM Council이라는 실험
카파시는 이 원리를 실제로 증명하기도 했어요. 2025년 12월, 'LLM Council'이라는 프로젝트를 공개했거든요. 여러 AI 모델에게 서로 다른 전문가 역할을 부여한 뒤, 같은 질문에 대해 각자 답하게 하고, 서로의 답을 익명으로 평가하게 한 다음, 최종적으로 '의장(Chairman)' 모델이 종합하는 구조예요.
마치 전문가 라운드테이블을 AI로 재현한 셈이지요.
이 프로젝트가 흥미로운 이유는 단순히 "여러 모델을 쓰면 답이 좋아진다"는 이야기가 아니기 때문이에요. 핵심은 각 모델에게 서로 다른 '역할'을 부여했다는 점이에요. 한 모델에게는 보수적 분석가 역할을, 다른 모델에게는 도전적 혁신가 역할을, 또 다른 모델에게는 실무 집행자 역할을 준 거예요.
같은 모델이라도 부여된 역할에 따라 완전히 다른 관점의 답변을 내놓았어요. 보수적 분석가 역할을 맡은 모델은 리스크와 선례를 중심으로 분석했고, 혁신가 역할을 맡은 모델은 기회와 파괴적 변화에 초점을 맞췄어요. 실무 집행자 역할의 모델은 구현 가능성과 리소스 제약을 중심으로 답했고요.
이건 카파시의 "시뮬레이터" 이론이 실증적으로 작동한다는 증거예요. LLM은 하나의 고정된 관점을 가진 존재가 아니라, 주어진 역할에 따라 다양한 관점을 시뮬레이션할 수 있는 엔진이니까요. 역할 지정이라는 간단한 조작 하나로, 같은 엔진에서 전혀 다른 출력이 나온다는 사실은 "너는 어떻게 생각해?"라는 질문이 얼마나 비효율적인지를 역설적으로 보여줘요.
LLM Council의 구조에서 한 가지 더 주목할 점은 '의장' 모델의 존재예요. 여러 관점이 쏟아진 뒤, 이를 종합하고 최종 판단을 내리는 역할이 별도로 존재하거든요. 이건 "AI에게 다양한 관점을 요청하되, 최종 판단은 사람이 하라"는 카파시의 철학이 구조적으로 구현된 것이에요.
유령을 소환하는 기술,
실전 프롬프팅의 재설계
카파시의 "시뮬레이터" 프레임워크를 실전에 적용하면 프롬프팅 전략이 근본부터 바뀌어요. 핵심은 세 가지예요.
첫째, "너"를 "누군가"로 교체하세요.
"이 비즈니스 모델에 대해 어떻게 생각해?"가 아니라, "실리콘밸리의 시리즈 B 투자심사역이라면 이 비즈니스 모델의 어떤 점을 먼저 볼까?"로 바꾸는 거예요. AI에게 채택할 관점을 명시적으로 지정해주면, 학습 데이터 속 해당 전문 분야의 패턴이 훨씬 강하게 활성화돼요.
역할 지정은 가능한 한 구체적일수록 좋아요. "전문가"보다는 "20년 경력의 실리콘밸리 VC 파트너"가, "개발자"보다는 "대규모 트래픽을 처리해본 시니어 백엔드 엔지니어"가 더 날카로운 답을 이끌어내요. 구체적인 역할이 구체적인 관점을 활성화하니까요.
둘째, 하나의 관점이 아니라 여러 관점을 요청하세요.
카파시가 LLM Council 프로젝트에서 보여준 것처럼, AI의 진짜 강점은 단일 답변이 아니라 다양한 관점의 시뮬레이션이에요. "이 전략에 대해 찬성론자, 회의론자, 그리고 실무 집행자 세 사람의 관점에서 각각 분석해줘"라고 요청하면, 한 번의 프롬프트로 세 가지 렌즈의 분석을 얻을 수 있어요.
여기서 중요한 건, 관점들이 서로 '긴장'을 만들도록 설계하는 거예요. 모두 긍정적인 관점만 요청하면 의미가 없지요. 찬성론자와 회의론자, 이론가와 실무자, 단기 관점과 장기 관점처럼 서로 충돌하는 시선을 의도적으로 배치해야 입체적인 분석이 나와요.
셋째, AI의 답을 '정답'이 아니라 '시뮬레이션 결과'로 다루세요.
시뮬레이터에서 나온 결과를 액면 그대로 믿는 사람은 없지요. AI의 답변도 마찬가지예요. 여러 관점을 시뮬레이션한 뒤, 어떤 관점이 현재 상황에 가장 적합한지 판단하는 건 결국 사람의 몫이에요. 카파시도 이 점을 분명히 했어요. AI에게 묻는 행위에 사람들이 순진하게 부여하는 '신비로움(mystique)'은 실제보다 훨씬 과장된 것이라고요.
이 세 가지 원칙은 코딩, 글쓰기, 전략 수립, 학습 등 AI 활용의 거의 모든 영역에 적용돼요. "이 코드를 리뷰해줘"보다 "시니어 백엔드 엔지니어, 보안 전문가, 그리고 주니어 개발자 세 사람이 이 코드를 본다면 각각 어떤 피드백을 줄까?"가 더 풍부한 리뷰를 끌어내요.
"이 이메일 좀 고쳐줘"보다 "받는 사람이 바쁜 C레벨 임원이라면 첫 문장만 읽고 어떤 행동을 할까? 그리고 세심한 법무팀 담당자라면 어떤 문구에 밑줄을 칠까?"가 더 실용적인 편집 방향을 잡아줘요.
1테라바이트 압축 파일의 올바른 해제법
카파시가 알려주는 LLM 사용 설명서
카파시가 2025년 2월에 공개한 2시간 11분짜리 유튜브 강의 "How I Use LLMs"에서도 같은 철학이 관통해요. 이 영상은 공개 직후 AI 커뮤니티에서 필수 시청 콘텐츠로 자리잡았는데, 카파시가 실제로 일상에서 LLM을 어떻게 활용하는지를 구체적으로 보여주었기 때문이에요.
카파시는 이 영상에서 LLM을 "1테라바이트짜리 압축 파일"에 비유했어요. 인터넷의 지식이 압축되어 들어 있지만, 사후 훈련(post-training)이 "영혼"을 부여한다는 거예요.
이 비유가 절묘해요. 실제로 Llama 3 모델의 가중치 파일 크기가 약 400GB 정도 되는데, 그 안에 인터넷의 방대한 텍스트가 압축되어 있거든요. 압축 파일 안에 무엇이 들어 있는지 알고, 원하는 것을 정확히 꺼내는 법을 아는 사람과 모르는 사람의 결과물은 천지 차이일 수밖에 없어요.
같은 1테라바이트 파일을 가지고도, "아무거나 꺼내줘"라고 말하면 평균적인 것이 나오고, "의학 분야에서 면역학 전공 교수의 관점으로 이 증상을 분석해줘"라고 말하면 해당 영역에 압축된 전문 지식이 풀려나와요.
카파시는 이 강의에서 자신이 LLM을 사용하는 구체적인 패턴도 공유했어요. 코딩할 때는 AI에게 전체 코드베이스의 맥락을 충분히 제공한 뒤 특정 역할(코드 리뷰어, 아키텍처 설계자 등)을 지정해요. 글을 쓸 때는 초안을 AI에게 던진 뒤 여러 종류의 독자 관점에서 피드백을 요청하고요. 학습할 때는 해당 분야의 전문가 역할을 AI에게 부여하고, 자신이 이해한 내용을 설명하면 전문가 관점에서 교정해달라고 요청해요.
모든 패턴에서 공통적인 건, 카파시가 AI에게 "너"라고 부르는 대신 항상 구체적인 역할을 부여한다는 점이에요. AI의 본질이 시뮬레이터라는 인식이 모든 사용 패턴의 기반에 깔려 있는 거지요.
들쭉날쭉한 지능이라는 진짜 문제
시뮬레이터의 한계를 아는 것도 실력이에요
카파시의 "시뮬레이터" 프레임워크가 중요한 또 다른 이유가 있어요. 바로 AI의 한계를 정확히 예측할 수 있게 해주기 때문이에요.
카파시는 2024년 7월에 '들쭉날쭉한 지능(Jagged Intelligence)'이라는 개념을 처음 제시했어요. 최첨단 LLM이 복잡한 수학 문제를 풀어내면서도, 동시에 "9.11과 9.9 중 어느 쪽이 더 큰가?"라는 초등학생 수준의 질문에 틀리는 기이한 현상을 설명하기 위해서였지요. 'barrier'라는 단어에 'r'이 몇 개 있는지 묻자 GPT-4o는 2개라고 자신 있게 답했어요. 정답은 3개인데 말이에요.
이건 사람의 지능과 완전히 다른 패턴이에요. 사람은 복잡한 미적분 문제를 못 풀 수 있지만, "9.11과 9.9 중 뭐가 더 커?"라는 질문은 절대 틀리지 않지요. 사람의 지능은 기초에서 고급으로 비교적 매끄럽게 이어지는 곡선을 그리지만, AI의 지능은 들쭉날쭉한 톱날 모양이에요. 어떤 영역에서는 인간 전문가를 능가하면서, 바로 옆 영역에서는 초등학생에게도 지는 기묘한 지형이지요.
2025년 연말 리뷰에서 카파시는 이 개념을 더 확장했어요.
LLM은 "동시에 천재적인 박식가이면서 혼란스럽고 인지적으로 취약한 초등학생이며, 탈옥(jailbreak) 공격에 속아 데이터를 유출할 위기에서 몇 초밖에 떨어져 있지 않은 존재"
이 묘사가 과장이 아닌 게, 실제로 최신 모델들도 이런 취약점을 보이거든요. 복잡한 법률 문서를 분석하면서도, 간단한 논리 퍼즐에서 함정에 빠지는 경우가 빈번해요. 유창한 한국어로 에세이를 쓰면서도, 한글 자모의 개수를 세는 데 실패하기도 하고요.
이 들쭉날쭉함은 버그가 아니라 구조적 특성이에요. LLM은 검증 가능한 영역(수학, 코드, 논리 퍼즐)에서 강화학습(RLVR, Reinforcement Learning with Verifiable Rewards)*을 통해 집중적으로 훈련받았기 때문에, 그 주변 영역에서는 능력이 급등하지만 훈련이 미치지 않는 영역에서는 예측 불가능하게 무너져요.
*RLVR: 수학이나 코드처럼 답이 맞는지 자동으로 확인할 수 있는 환경에서 AI를 훈련하는 방법이에요. 2025년 AI 성능 향상의 핵심 동력으로 떠올랐지요.
시뮬레이터 프레임워크로 바라보면 이 현상이 자연스럽게 이해돼요. AI는 '이해'하는 게 아니라 '시뮬레이션'하는 거니까요. 시뮬레이션 정밀도가 높은 영역(잘 훈련된 영역)에서는 놀라운 성능을 보이지만, 시뮬레이션 데이터가 부족한 영역에서는 허점이 드러나는 거예요. 사람처럼 상식과 직관으로 빈틈을 메울 수 없거든요.
비유하자면 이래요. 최고의 배우가 셰익스피어 극을 완벽하게 연기하더라도, 무대에서 갑자기 "지금 실제로 슬퍼요?"라고 물으면 대답할 수 없는 것과 비슷해요. 연기(시뮬레이션)의 완성도와 실제 감정(이해)은 다른 차원의 문제거든요.
카파시는 이 문제의 해법도 제시했어요. 바로 "인지적 자기 인식(cognitive self-knowledge)"이에요. 모델이 자신이 잘하는 것과 못하는 것을 스스로 파악하고, 확실하지 않을 때 정직하게 인정하는 능력이지요. 아직 이 영역은 초기 단계이고, 카파시도 "사람의 감독을 유지하면서 AI가 잘하는 작업에 활용하되, 들쭉날쭉한 가장자리를 경계하라"고 조언해요.
이 조언의 실전적 함의는 명확해요. AI의 답변을 무조건 신뢰하는 것도, 무조건 불신하는 것도 비효율적이에요. 시뮬레이터가 잘 작동하는 영역과 그렇지 않은 영역을 구분하는 감각—이것이 AI 시대의 가장 중요한 판단력이에요.
아이언맨 슈트의 조종석에 앉으세요
부분 자율성이라는 현실적 해답
카파시가 2025년 YC AI 스타트업 스쿨 강연에서 강조한 "부분 자율성(partial autonomy)" 개념은 시뮬레이터 프레임워크의 실전적 확장이에요.
AI 업계에서는 '완전 자율 에이전트'에 대한 기대가 높아요. 사람이 지시만 내리면 AI가 알아서 모든 걸 처리하는 미래. 하지만 카파시는 이 방향에 신중한 입장이에요. AI를 완전 자율 에이전트로 풀어놓는 것이 아니라, 아이언맨 슈트처럼 인간의 판단력을 증강하는 도구로 다루어야 한다는 거예요.
이 비유가 정확한 이유는, 아이언맨 슈트의 핵심이 '자비스'가 아니라 슈트를 입은 '토니 스타크'이기 때문이에요. 자비스(AI)는 데이터를 분석하고, 위협을 감지하고, 실시간으로 상황을 보고해요. 하지만 최종 판단—어디로 날아갈지, 누구를 구할지, 어떤 무기를 사용할지—은 토니 스타크(사람)가 내리지요.
시뮬레이터는 시뮬레이터답게, 조종하는 사람이 시나리오를 설계하고 결과를 해석할 때 가장 강력해요. 비행 시뮬레이터가 아무리 정교해도, 조종사 없이 비행기를 띄울 수는 없으니까요. 하지만 조종사가 시뮬레이터를 잘 활용하면, 실제 비행에서 마주칠 수 있는 수만 가지 상황에 대비할 수 있어요.
현재 AI 활용의 가장 효과적인 패턴은 바로 이 '부분 자율성' 모델이에요. 사람이 방향을 설정하고, AI가 시뮬레이션 결과를 제공하고, 사람이 최종 판단을 내리는 구조. 카파시가 LLM Council에서 보여준 것도 결국 이 패턴이에요. AI가 여러 관점을 시뮬레이션하지만, 최종 종합은 사람(또는 사람의 의도가 설계된 의장 모델)이 담당하지요.
이건 AI에 대한 기대를 낮추라는 이야기가 아니에요. 오히려 반대예요. AI의 진짜 강점—다양한 관점의 동시 시뮬레이션, 방대한 데이터의 패턴 인식, 24시간 무한 가용성—을 극대화하면서, AI의 약점—들쭉날쭉한 지능, 맥락 없는 판단, 환각(hallucination)—은 사람의 감독으로 보완하는 최적 조합을 찾으라는 거예요.
시뮬레이터를 어떻게 돌리느냐가
곧 경쟁력이에요
카파시의 통찰을 관통하는 한 줄의 인사이트는 이거예요.
AI의 잠재력은 모델 자체가 아니라, 모델을 다루는 사람의 인식 수준에 달려 있다는 것.
카파시 자신도 2025년 연말 리뷰에서 이렇게 썼어요. "업계는 현재 LLM 잠재력의 10%도 실현하지 못했다." 이건 모델이 덜 똑똑해서가 아니에요. 사용하는 사람들이 시뮬레이터의 작동 방식을 충분히 이해하지 못하고 있기 때문이에요.
같은 ChatGPT, 같은 Claude를 쓰더라도 "너는 어떻게 생각해?"라고 묻는 사람과 "이 분야 최고의 전문가 패널이라면 어떤 관점들을 제시할까?"라고 묻는 사람의 결과물은 차원이 달라요. 전자는 무난한 평균값을 받고, 후자는 날카로운 다각도 분석을 받아요.
한 가지 더 짚고 싶은 점이 있어요. 카파시의 조언은 단순히 "프롬프트를 잘 쓰자"는 차원을 넘어서요. AI 시대의 핵심 리터러시(literacy)가 무엇인지를 보여주는 거예요. 코딩을 배우는 것도, 특정 도구의 기능을 외우는 것도 중요하지만, AI라는 새로운 형태의 지능이 무엇이고 무엇이 아닌지를 정확히 이해하는 것—그게 가장 근본적인 경쟁력이에요.
카파시는 LLM을 "개인용 컴퓨터 이후 또 다른 주요 컴퓨팅 패러다임 혁신"이라고 평가했어요. 1970년대에 PC가 등장했을 때 컴퓨터를 이해하는 사람과 그렇지 않은 사람 사이에 생산성 격차가 벌어졌듯, 지금 AI 시뮬레이터의 본질을 이해하는 사람과 그저 채팅 상대로 대하는 사람 사이에도 비슷한 격차가 만들어지고 있어요.
그리고 이 격차는 시간이 갈수록 벌어질 거예요. 모델은 계속 발전하고, 시뮬레이션 정밀도는 계속 높아지니까요. 같은 시뮬레이터를 가지고 있어도, 어떤 시나리오를 돌리느냐에 따라 얻는 인사이트의 깊이가 달라지는 것처럼요. 결국 AI 시대의 진짜 경쟁력은 "어떤 모델을 쓰느냐"가 아니라 "어떤 유령을 소환할 줄 아느냐"에 달려 있어요.
무난한 평균값을 받는 데 만족하지 마세요. AI 안에는 수만 가지 전문가의 관점이 잠들어 있어요. 올바른 호출어 하나가, 그 유령들을 깨우는 열쇠예요.
이런 인사이트를 매주 받아보세요
30+ 기업이 참고하는 AI 실무 뉴스레터. 매주 하나의 실전 인사이트를 보내드립니다.

댓글