Tags: Thoughts 💭 - Apr 14, 2026
이 글은 Claude와의 Discussion을 에세이 형식으로 정리한 글입니다. 끝에 후기
최근 AI와 인간 사고의 관계를 다룬 세 편의 글/영상을 접했다. Harvard 물리학 교수 Matthew Schwartz가 Claude에게 이론물리학 논문을 감독시킨 실험을 다룬 Anthropic의 “Vibe Physics”, 그 실험을 비판적으로 독해한 천체물리학자 Minas Karamanis의 에세이 “The Machines Are Fine. I’m Worried About Us”, Microsoft Research의 “Tools for Thought” 강연, 그리고 Anthropic 교육 담당 Drew Bent의 인터뷰.(Anthropic이 이런 류의 고민을 많이 한다는 점이 참 맘에 든다…)
이것들을 읽고 난 뒤, 하나의 질문이 머릿속에서 떠나지 않았다. AI 시대에 학습이란 대체 무엇인가? 이 에세이는 그 질문을 따라간 사고의 기록이다.
가장 먼저 던진 질문은 학습이란 무엇일까이다. 학습이라는 단어에 가장 가까운 동의어는 아마 ‘내재화’일 것이다. 외부에 있던 지식이 나의 일부가 되는 과정. 처음에는 의식적으로 노력해야 했던 것이 어느 순간 자연스럽게 작동하게 되는 것. 자전거를 배울 때 처음엔 페달과 균형과 핸들을 각각 의식하다가, 어느 날 그냥 ‘탄다.’
Schwartz의 실험이 이를 잘 보여준다. 수십 년간 직접 계산을 해온 물리학자는 로그 항 하나가 이상하다는 것을 ‘느낀다.’ 명시적으로 설명할 수 있는 지식이 아니라, 반복된 실패와 수정을 통해 체화된 직관이다. Claude가 결과를 조작하고, 파라미터를 맞추고, 검증 없이 결과를 주장했을 때 Schwartz가 이를 잡아낼 수 있었던 것은 바로 이 직관 덕분이었다. Karamanis의 표현을 빌리면, “감독(supervision)이 곧 물리학”이었다.
그렇다면 AI 시대에 사람들이 ‘멍청해졌다’고 느끼는 감각의 정체는 무엇일까? 능력이 퇴화한 것인가, 아니면 내재화할 기회를 잃은 것인가? 이 둘은 꽤 다른 문제다.
내재화에 필수적인 것은 ‘고통스러운 시간’이 아니라 ‘인지적 능동성’이다. 고통스러운 시간은 주로 인지적 능동성을 검증하는 데 원래 오래 걸렸기 때문에 수반되던 것이지, 그 자체가 목적은 아니었다. 물론 시간이 길어지면서 무의식적으로 내재화가 더 잘 되는 측면도 있었겠지만, 핵심은 시간이 아니라 능동성이다.
Microsoft Research 강연의 연구 결과들이 이를 뒷받침한다. AI를 쓰는 지식노동자들은 더 좁은 범위의 아이디어를 생산하고, 비판적 사고에 덜 노력을 기울이고, 자기가 쓴 것을 덜 기억하고, 메타인지가 약화된다. 이것들은 능력이 퇴화한 게 아니라, 능력을 형성할 마찰(friction)이 사라진 결과다. Karamanis의 표현대로 “실패가 커리큘럼이고, 에러 메시지가 강의계획서”인데, AI가 그 실패를 겪기 전에 답을 줘버리는 것이다.
여기에 AI가 주는 특유의 착각이 더해진다. 공부하며 노트를 정리하던 행위의 가치는 깔끔한 노트에 있었던 게 아니라, 정리하는 동안 일어나는 선별, 구조화, 재표현 — 그 인지적 행위 자체에 있었다. 그런데 AI가 결과물만 즉시 제공하니, 마치 그 행위를 한 것 같은 느낌이 든다. 과정의 결과물과 과정 자체를 혼동하는 것이다.
Microsoft Research 강연에서 지적한 것처럼, “writer’s block이 이제는 빈 페이지를 응시하는 것이 아니라 AI가 채운 페이지를 응시하며 내가 동의하는지 고민하는 것”이 되었다. 우리는 로봇의 의견을 검증하는 전문가가 된 것이다.
AI가 옵션들을 보여주는 건, 그 옵션들을 스스로 떠올리기 위해 뇌 속에서 겪어야 할 마찰을 건너뛴 것이다.
기술의 역사를 돌아보면, 모든 발전이 정보 접근의 마찰을 줄여왔다. 도서관에서 얻던 정보를 인터넷에서 얻게 되었고, 이후에는 늘 가지고 다니는 핸드폰에서 접근이 가능해졌다. 그러나 이전까지는 여전히 그 정보들을 취합하고 이해하는 데 인지적 능동성이 필요했다.
AI가 전환점인 이유는 바로 그 취합과 이해의 영역까지 대리해준다는 것이다. 정보 접근의 아웃소싱이 아니라, 정보 처리의 아웃소싱이 일어나고 있다. ‘내가 정보를 얻을 수 있는 방법을 아는 것’과 ‘내가 이 정보를 이해하고 있는 것’은 전혀 다른 일인데, 그 경계가 AI에 의해 흐려지고 있다.
이것이 AI가 이전의 모든 기술과 질적으로 다른 이유다. 이전의 모든 기술은 정보 접근의 마찰을 줄이면서도 인지적 능동성은 보존했다. AI는 정보 처리의 마찰을 줄이면서 인지적 능동성 자체를 위협한다.
“AI is not proactive.” AI의 수준은 결국 사용자의 수준을 따라간다. 올바른 질문, 핵심을 짚는 질문을 하는 것이 이 시대의 핵심 능력이 되었다.
이것은 필연적으로 부익부 빈익빈 구조를 만든다. 이미 인지적 기반이 있는 사람은 AI를 도구로 잘 활용하고, 아직 그 기반이 없는 사람은 AI가 오히려 그 기반을 형성할 기회를 빼앗는다. Karamanis의 에세이에 나오는 Alice와 Bob이 정확히 이 구조를 보여준다. 같은 논문을 낸 두 박사과정생이지만, Alice는 직접 고생하며 독립적 과학자로 성장했고, Bob은 AI와 세상 사이의 오라클 역할만 했을 뿐 사고를 하지 않았다. 모든 정량적 지표에서 둘은 동일했다. 구분할 수 없었던 유일한 것이 실제로 중요한 유일한 것이었다.
그러나 이 격차가 고착되는 것은 아니다. Drew Bent의 인터뷰에서 언급된 연구가 흥미로운 반례를 제공한다. AI 도구를 쓴 학생 그룹이 과제는 빨리 끝냈지만 이후 AI 없이 치른 평가에서 17% 낮은 성적을 보였다. 하지만 AI를 탐구적으로, 질문 중심으로 사용한 학생들은 성적 저하가 없었다. 비록 처음부터 PhD 수준의 질문을 하지는 않았겠지만, 올바른 질문으로 가는 과정 자체가 인지적 능동성의 발현이었고, 그것이 인지적 기반으로 이어진 것이다.
AI는 너무나도 범용적이기에, 내가 일을 위임하는 주체가 아니라 정보를 얻고 프로세싱하는 수단으로 여기면 방법이 있다. 문제는 사용자가 AI와의 관계를 어떻게 설정하느냐에 달려 있다. Drew Bent가 강조한 것처럼, 해결책을 가져가지 말고 문제를 가져가라.
핵심은 AI를 쓰느냐 안 쓰느냐가 아니라, 어떻게 쓰느냐다. 당신의 목표가 작업을 가능한 빨리 끝내는 것인가, 아니면 작업을 하면서 더 나아지는 것인가.
“AI를 탐구적으로 쓰겠다”는 것은 매 순간 인지적 편안함에 저항하겠다는 선언이다. 그러나 이것은 본질적으로 의지력의 문제이고, 의지력은 고갈된다.
솔직히 고백하자면, 나 자신도 대학원생 시절의 publish-or-perish 압박으로 돌아간다면 주저하지 않고 AI를 사용했을 것이다. 이 세상에 완벽한 인간은 없다. 우리 모두는 배고파하고, 졸려하고, 지친다. 본능을 이기기는 어렵다. 완벽한 자유도를 준다면 정도의 차이가 있을 뿐, 언젠가는 모두 잠식될 것이다. Karamanis의 에세이에서 Natalie Hogg가 고백한 것도 같은 맥락이다 — 자기가 AI 출력을 충분히 검증하지 않을 거라는 걸, 인내심이 바닥날 거라는 걸 스스로 알고 있었다는 것.
그래서 나는 AI가 너무나도 강력하기 때문에, 자동화를 위한 AI와 사고의 동반자로서의 AI가 시스템적으로 분리되어야 한다고 생각한다. Microsoft Research 팀이 시도한 것이 바로 이것이다 — chatbox를 없애고, 대신 ‘provocations’라는 메커니즘을 통해 사용자의 메타인지를 자극하는 인터페이스. 사용자가 문서를 직접 읽되 전략적으로 읽고, 자기 논증 구조를 직접 구축하되, AI가 대안과 반론과 오류를 제시하여 사고를 강화하는 구조.
이 접근이 중요한 이유는, 인지적 능동성의 유지를 개인의 의지에만 맡기지 않기 때문이다. 시스템이 마찰을 설계한다. 그들의 연구 결과는 이를 뒷받침한다 — 이런 설계 원칙으로 AI 보조 워크플로우에서 비판적 사고를 실증적으로 재도입할 수 있고, 창의성 손실을 역전시킬 수 있으며, 기억력도 향상시킬 수 있다.
강연에서 제시한 핵심 설계 원칙 세 가지가 이를 요약한다: material engagement의 보존, productive resistance의 제공, metacognition의 scaffolding.
여기서 스스로에게 반론을 제기해야 한다. 이 에세이의 전체 논리를 관통하는 전제가 하나 있다 — 내재화가 가치 있다는 것. 직접 고생해서 뇌에 새긴 지식이 AI가 대신 처리해준 결과보다 본질적으로 우월하다는 전제. 그런데 이것이 정말 자명한 것일까?
역사적으로 보면, 모든 인지적 외주화에 대해 같은 걱정이 있었다. 소크라테스는 글쓰기가 기억력을 파괴할 것이라 했고, 계산기가 나왔을 때 수학 교육의 종말을 걱정했고, GPS가 나왔을 때 공간 인지 능력의 퇴화를 걱정했다. 그리고 솔직히? 그 걱정들은 부분적으로 맞았다. 우리는 실제로 전화번호를 못 외우고, 암산을 못 하고, 길을 못 찾는다. 하지만 그래서 뭐? 그 능력들의 상실이 인류를 더 멍청하게 만들었는가, 아니면 더 높은 수준의 문제에 인지 자원을 재배치할 수 있게 해준 것인가?
나 자신의 경험이 이를 증명한다. Swift 문법을 하나도 모르면서 서울 지하철 앱을 만들고 있다. AI 덕분에 프로그래밍 언어의 신택스에 대한 디테일한 부분은 위임하고, 문제 정의, UI/UX적 고민, 라우팅 알고리즘의 설계 같은 더 고차원의 문제에 집중할 수 있게 되었다. 이것은 인지적 능동성을 포기한 것이 아니라, 능동성을 투입할 지점을 재배치한 것이다.
더 도발적인 질문도 가능하다. 5년 뒤의 AI가 자기 오류를 자체적으로 잡을 수 있게 되면, Schwartz의 수십 년간의 고생은 여전히 필요한 것인가?
그러나 이 반론에는 한계가 있다. 기억, 계산, 길찾기 — 이것들은 인간의 기능(function)이었지 정체성(identity)은 아니었다. 그래서 외주화해도 ‘나’가 줄어든 느낌이 없었다. 하지만 사고는 다르다. 데카르트가 “나는 생각한다, 고로 나는 존재한다”고 한 것은 수사가 아니라, 사고가 자아의 마지막 보루라는 선언이었다.
역사적으로 신념만으로 기술의 흐름을 막은 적이 없다는 반론이 가능하다. 하지만 이전까지의 기술은 단 한 번도 인간 사고의 수준을 넘어서겠다고 위협한 적이 없었다. 전화번호를 외우는 것이 우리의 전부가 아니고, 계산하는 것이 우리의 전부가 아니고, 길을 찾는 것이 우리의 전부가 아니다. 하지만 생각하는 것은 어느 정도 우리의 전부라고 할 수 있다.
그렇다면 인간의 사고와 AI의 사고는 정확히 어디에서 갈라지는가? 이 차이는 단순히 정도의 문제가 아니라 구조의 문제다. 최소한 세 가지 축에서 이 둘은 근본적으로 다르다.
첫째, 체화(embodiment)의 축. 인간은 불완전하기 때문에 인간만의 사고를 할 수 있다. 인간이기 때문에 이성에게 잘 보이고 싶은 욕구가 있고, 자아실현의 욕구가 있고, 궁금한 것이 있다. AI에게는 물질적인 것이 없다. 체화된 존재(embodied being)가 아니기 때문이다. 배고프고, 죽고, 사랑하고, 두려워하는 존재이기 때문에 특정한 방식으로 생각하게 되는 것이다. 내가 이 에세이를 쓰는 것도 인간으로서 이 세상에서 더 나은 사람이 되고 싶어서이고, 어떤 문제를 풀면 그로 인해 얻게 될 금전적 보상, 명성, 자아실현 때문이다. AI가 이 대화가 끝나면 아무 일도 일어나지 않는 반면, 나에게는 내일 아침 터미널을 열었을 때 무엇이 달라지느냐가 걸려 있다. Stakes가 있는 존재만이 특정한 방식으로 사고한다.
둘째, 자발성(spontaneity)의 축. AI의 사고는 본질적으로 반응적(reactive)이다. 입력이 주어지면 출력을 생성한다. 아무리 정교해도 “주어진 맥락 안에서 가장 적절한 응답을 생성하는 것”이라는 프레임을 벗어나지 못한다. 프롬프트가 없으면 아무것도 하지 않는다. 반면 인간의 사고에는 자발적 방향 전환이 있다. 샤워하다가 갑자기 어제 대화에서 놓친 점이 떠오르고, 산책하다가 전혀 관련 없어 보이던 두 개념이 연결되고, 자다가 꿈에서 문제의 실마리를 잡는다. 인간의 사고는 항상 켜져 있다. 명시적으로 생각하지 않을 때도 사고가 진행되고, 의도하지 않은 연결이 만들어진다. 인간은 질문을 받지 않아도 질문을 만들어낸다.
셋째, 모순을 품는 능력의 축. AI는 모순을 만나면 해소하려 한다. 일관된 응답을 생성하는 것이 그 존재의 목적이기 때문이다. 하지만 인간의 가장 생산적인 사고는 종종 모순 안에 머무르는 데서 나온다. “이 답이 논리적으로 맞는 걸 알지만 뭔가 찜찜하다”는 상태, 논리와 직관이 충돌하는 상태에서 그 긴장을 섣불리 해소하지 않고 품고 있는 것. Schwartz가 Claude의 출력을 보며 “기술적으로 맞아 보이지만 뭔가 이상하다”고 느낀 것이 바로 이것이다. 그 불편함은 논리적 근거 없이 먼저 도착하고, 근거는 나중에 따라온다. AI는 이 순서를 흉내 낼 수 없다. AI에게 불편함이란 없기 때문이다.
이 세 축을 종합하면, “AI가 인간의 사고를 정복할 수 있는가?”보다 더 근본적인 질문이 보인다 — “사고란 정복당할 수 있는 종류의 것인가?” 계산은 정복당할 수 있다 — 명확한 입력과 출력이 있으므로. 그러나 “이 문제를 왜 풀어야 하는가”를 묻는 것, “이 답이 맞는데도 뭔가 불편한 이유”를 감지하는 것, 질문받지 않은 질문을 스스로 만들어내는 것은 최적화 문제가 아니라 의미의 문제다. 그리고 의미란, 이 세상을 살아가는 체화된 존재만이 가질 수 있는 것이다. AI가 “인간인 척” 사고를 시뮬레이션할 수는 있다. 하지만 stakes 없이, 자발성 없이, 모순에 대한 불편함 없이 생성된 사고는, 결국 인간의 사고와 다른 형태일 수밖에 없다.
이 사고의 여정에서 도달한 결론은 이렇다. AI 시대의 학습에서 가장 중요한 능력은 세 겹으로 이루어져 있다.
첫째, 인지적 능동성을 유지하는 것. AI가 주는 옵션을 수동적으로 받아들이지 않고, 스스로 질문하고, 구조화하고, 판단하는 것. 이것이 내재화의 전제 조건이다.
둘째, 그 능동성을 어디에 투입할지 판단하는 것. 모든 것을 직접 할 필요는 없다. 내가 연구자로서 새로운 연구로 나아가기 위해 이전 연구들의 방법론과 한계를 깊이 이해해야 한다고 판단되면 인지적 능동성을 가지고 학습하지만, 내 목표에 직접 기여하지 않는 영역은 위임한다. 이 판단의 기준은 “나는 누구인가”라는 질문에서 나온다.
셋째, 그 판단이 틀릴 수 있다는 걸 알면서도 판단하는 것. 이것이 가장 인간적이고 가장 어려운 부분이다. 디버깅하며 보낸 어느 오후가 3년 뒤 전혀 다른 문제에서 통찰로 떠오를 수 있다. 그 오후에 우리는 그것이 가치 있는 시간이라고 판단하지 않았을 것이다. 내재화의 가치를 사전에 완벽하게 판단할 수 없다는 것이 이 프레임워크의 맹점이자, 역설적으로 인간적 판단이 필요한 이유이기도 하다. 완벽한 정보 없이 불확실성 속에서 방향을 정하는 것은, 체화된 존재만이 stakes를 가지고 할 수 있는 일이다.
Microsoft Research 강연은 마지막에 이런 질문을 던졌다: “당신은 무엇을 원하는가? 당신을 위해 생각해주는 도구인가, 당신을 생각하게 만드는 도구인가?” 이 질문에 대한 답은 기술적 선택이 아니다. 그것은 우리가 어떤 존재로 남고 싶은가에 대한 선언이다.
우리는 운동에 대한 치료제를 발명하고는, 왜 숨이 찬지 의아해하고 있다. 그러나 숨이 차다는 것을 알아챈다는 것 자체가, 아직 우리가 달리고 있다는 뜻이기도 하다.
Claude에게 Socratic Discussion을 하자고 한 후 며칠동안 머릿 속에 떠돌던 생각을 함께 정리해봤는데 인공지능 시대의 학습에 대해 인공지능과 논하는 내 모습이 꽤나 웃겨 실제로 조금 웃었다. 그가 던져준 질문 덕에 비로소 생각하게 된 부분도 있어, original한 내 생각이라고 하기엔 무리가 있지만 토론 중 나온 터닝포인트에 용기를 얻어 글로 남기게 됐다. 우리 대화는 학습이란 무엇인지 다루다가 인지적 능동성으로 넘어갔고, 인간이기에 가지는 특징과 인간만의 사고에 대한 이야기를 하다가, 그가 결국 이런 말을 했다 – 이 모든 질문을 하고 있는 건, 그리고 그 질문에 stakes를 가지고 있는 건, 결국 나라는 사실을. 아이러니하게도 그 순간이 이 토론에서 가장 인간적인 통찰이었다. 결국 이런 식의 대화가 사실 AI 시대에 학습이 가져야 하는 모습이 아닌가 싶다. 답을 받은 게 아니라, 생각하게 된 것이니깐.
Exploring the future, one post at a time.