# Knowledge work in the AI era > ## AI 시대의 지식 노동 ## AI 시대의 지식 노동 AI-인간 협업의 병목 줄이기 + 불확실성에 대응하기 2025-03-25 (갱신: 2025-07-22) ## 0. 발표자 포털, 게임 회사, UX 에이전시 등에서 개발자, 연구원, 데이터 엔지니어, 기획자 등으로 근무 현재 이런저런 회사에서 [AI가 가미된 서비스](https://wiki.g15e.com/pages/AI%20infused%20service.txt)를 기획/개발하고 있음 ## 1. 들어가기 전에 문제점: AI 시대에 오래 살아본 사람 없음 - [word2vec](https://wiki.g15e.com/pages/word2vec.txt) (<2013년>) ← 신기한 느낌이었음. 하지만 아직 AI 시대라고 하기엔… - [Attention is all you need](https://wiki.g15e.com/pages/Attention%20is%20all%20you%20need.txt) (<2017년>) ← 여기에서 미래를 본 사람? (저는 아닙니다) - [TabNine](https://wiki.g15e.com/pages/TabNine.txt) (<2018년>) ← 이거 써보신 분? (저는 아닙니다) - [GitHub Copilot](https://wiki.g15e.com/pages/GitHub%20Copilot.txt) (<2021년>) ← [힙스터 개발자](https://wiki.g15e.com/pages/Less%20boring%20technology.txt)라면 여기쯤? (제가 바로 그 힙스터 😎) - [ChatGPT](https://wiki.g15e.com/pages/ChatGPT.txt) (<2022년>) ← 보통은 여기? ❌ "AI 시대, 이렇게 살면 됩니다." ✅ "이런거 고민해보고 저런거 실행해봤더니 저는 어땠어요." "진실을 정확히 안다고 말하는 자는 잘 모르는 사람이라고 보면 된다." *--<1928년>, <버트랜드 러셀>* ### 주제 고민하고 시도해본 경험과 생각 공유 소소한 습관, 교훈, 팁, 태도에 대한 주관적 의견 **건강한 수준의 경각심 + 구체적 실행 계획**을 세워보고 싶은 마음이 들게 만들면 성공 ### 문제: 발전이 너무 빠름 (최근 3년) ![](https://d1lamhf6l6yk6d.cloudfront.net/uploads/2024/11/LLMflation%E2%80%93Inline-2-1.png) (참고: [LLMflation](https://wiki.g15e.com/pages/LLMflation.txt)) ### 문제: 발전이 너무 빠름 (최근 7일) <2025년 7월 14일>: Moonshot에서 Kimi K2 공개(1000B-A32B). 상당수 벤치마크에서 Opus 4 (non-thinking) 능가 <2025년 7월 21일>: Qwen3-235B-A22B-2507 [공개](https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507). Kimi K2의 1/4 크기(Activation 기준 2/3)인데 거의 모든 벤치마크에서 더 우수 235B? - 235B 16FP: 램 512GB 필요 (맥 스튜디오 기준 약 2,000만원) - 235B 4bit quantize: 램 128GB 필요 (맥 스튜디오 기준 약 500만원) "유료 구독자에게는 요약본을 드려요." *--, [Pay me to send you less](https://simonwillison.net/2025/May/25/sponsors-only-newsletter/)* ### 문제: 예측이 어렵다 학계: LLM만으로는 한계가 있다 (<7월 1일>, [Thinking Beyond Tokens](https://wiki.g15e.com/pages/Thinking%20Beyond%20Tokens%20-%20From%20Brain-Inspired%20Intelligence%20to%20Cognitive%20Foundations%20for%20Artificial%20General%20Intelligence%20and%20its%20Societal%20Impact.txt)) : 되는데요? (<7월 20일>, [Gold medal-level performance on IMO](https://x.com/openai/status/1946594928945148246?s=46)) : 인상적이지만 비공식이잖아? (같은 날, [트위터에 남긴 글](https://x.com/garymarcus/status/1946615636203057413?s=46)) [구글](https://wiki.g15e.com/pages/Google.txt): 우린 공식😎 (<다음날>, [Advanced Gemini officially achieves gold-medal](https://deepmind.google/discover/blog/advanced-version-of-gemini-with-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad/)) ### 전문가는 뭐라고 하나? 주의: [전문가 의견에 기반한 논증](https://wiki.g15e.com/pages/Argument%20from%20expert%20opinion.txt) - "AI는 멍청해서 위험할 수 없다. 잘 쓰면 유익." *-- ()* - "AI는 이미 너무 똑똑하고 위험." *--* - "AI는 멍청한 <확률적 앵무새>지만 차별적이라 위험." *--* - "AI가 아니라 AI를 이용하는 기업의 탐욕이 위험." *–-[T. Harris](https://wiki.g15e.com/pages/Tristan%20Harris.txt) (Y. LeCun 들으라고 하는 말)* - "촘스키 언어학 관점에서 아무 의미도 없다." *-- (촘스키 언어학 창시자)* - "기호주의를 섞기 전엔 멍청" *-- (촘스키 제자의 제자 쯤)* - "양자 컴퓨터? 20년은 걸림(1월). 아차 잘못 말했음(3월)." *-- ([Willow 발표 후](https://observer.com/2025/01/is-nvidias-jensen-huang-right-about-quantum-computing/) vs. [퀀텀연구소 발표 후](https://observer.com/2025/01/is-nvidias-jensen-huang-right-about-quantum-computing/))* 유사종교? 숭배하거나() 두려워하거나(<장기주의>). ### 다른 분야는 어떤가 IT보다 AI를 선도적으로 쓰는 분야가 많지 않음. 예외? 전쟁: - [OODA loop](https://wiki.g15e.com/pages/OODA%20loop.txt): → [HOTL](https://wiki.g15e.com/pages/Human-on-the-loop.txt) → ? - 핵전쟁 [상호확증파괴(MAD)](https://wiki.g15e.com/pages/Mutually%20Assured%20Destruction.txt) vs. AI [상호확증통제상실(MALoC)](https://wiki.g15e.com/pages/Mutually%20Assured%20Loss%20of%20Control.txt) (참고: , [Army of None](https://wiki.g15e.com/pages/Army%20of%20None.txt)) 전쟁에서의 <특이점>: HOTL 상황에서 AI의 OODA 속도가 인간의 이해 속도를 넘어서는 시점에 인간은 통제력을 사실상 상실 일반화된 특이점 개념보다 분야별로 특화된 형태의 특이점 개념을 생각해보면 유익. 또다른 사례: "<레이 커즈와일>의 <특이점>은 컴퓨터가 인간의 강점을 뛰어넘는 시점. 그 시기는 아직 오지 않았으나, 컴퓨터가 인간의 약점을 뛰어넘는 시점은 이미 도래." --[T. Harris](https://wiki.g15e.com/pages/Tristan%20Harris.txt), [Social Dilemma](https://wiki.g15e.com/pages/Social%20Dilemma%20(film.txt)) ### 나는 어떤 상황? " 플러스 요금제 사용자도 월 15회 딥 리서치를 쓸 수 있게 됐다. 꽉꽉 채워서 다 써야지." --<2025년 3월 4일> 일기 중 "나는 궁금한 게 생각보다 없었고 그나마 만들어진 보고서도 다 읽지 못한다." --<2025년 3월 13일> 일기 중 - "누구나 그럴듯한 계획이 있다. 처맞기 전까지는" - "딥 리서치 조지고 올게" / "하지만 언제나 조져지는 건 나였다" [AI 능력 과잉](https://wiki.g15e.com/pages/AI%20capability%20overhang.txt)과 [생성형 소화불량](https://wiki.g15e.com/pages/%EC%83%9D%EC%84%B1%ED%98%95%20%EC%86%8C%ED%99%94%EB%B6%88%EB%9F%89.txt) ### 중간 요약 변화가 빠르고 예측이 어려운데 전문가 의견도 다 다르고 이해관계가 얽혀 있음 → **불확실성에 대응하기** 앞선 분야에서는 인간이 병목임이 확연 → **인간 병목 줄이기** 불확실한 와중에 상대적으로 확실한 건 인간 병목 문제가 점차 심각해진다는 점 언젠가는(?) AI와 로봇이 노동을 다 하고 [분배 정의](https://wiki.g15e.com/pages/Distributive%20justice.txt)가 실현되어 인간은 <보편기본소득>을 받고 [소외된 노동](https://wiki.g15e.com/pages/Alienated%20labor.txt)에서 완전히 해방되겠지만 당분간은(?) 적응하며 살아야 함 "당분간"이 1년일지 5년일지 10년일지 모름 ## 2. 인간 병목 AI-인간 협업이 발달한 분야에서는 인간이 이미 병목 자원이며 이 현상은 당분간 가속될 것 (확신할 수 있는 몇 안되는 예측 중 하나) 전체 프로세스의 성능(throughput)은 병목에 의해 제한됨 ([큐잉 이론](https://wiki.g15e.com/pages/Queuing%20theory.txt)) ### 인간 병목 분석해보기 "What you write down doesn't mean exactly what you think it means. And when it does, it doesn't have the consequences you expected." *--, [Software Abstractions](https://wiki.g15e.com/pages/Software%20Abstractions%20-%20Logic,%20Language,%20and%20Analysis.txt)* AI-인간 협업 루프: (proactive and/or ambient agents 제외) 1. **인간이 게으름을 극복** 2. **인간이 의도를 구체화** 3. **인간이 의도를 AI에게 전달** 4. AI가 응답을 생성 ← [환각](https://wiki.g15e.com/pages/Hallucination%20(AI.txt)) 주의 😇 5. AI가 응답을 인간에게 전달 6. **인간이 AI의 응답을 이해** 7. GOTO 1 과제: 인간의 역량 높이기 + 소통 채널 개선하기 ### 습관: 생각을 미리 꺼내놓기 지연(latency)을 줄이는 방법 중 하나는 미리 가져오기(pre-loading) 생각을 AI에게 전달하느라 지연이 생기면? 생각을 미리 꺼내놓는다 (참고: [위키 가드닝 규칙](https://wiki.g15e.com/pages/Wiki%20gardening%20rules.txt)) 캐시와의 차이: - 캐시: hit-ratio가 낮으면 낭비 - 생각 꺼내놓기: hit-ratio가 낮더라도 생각을 지속적으로 관리하는 행위 자체가 이로움 암묵지도 꺼내보기 (참고: [Knowledge elicitation](https://wiki.g15e.com/pages/Knowledge%20elicitation.txt)) ### 습관: 자동화 중복(duplication; 의미없는 반복)을 제거하기 (참고: [Hammerspoon LLM script](https://wiki.g15e.com/pages/Hammerspoon%20LLM%20script.txt)) ### 습관: 수동화 여분(redundancy; 의미있는 반복)을 도입하기 (참고: [과정에 담긴 가치](https://wiki.g15e.com/pages/Values%20in%20the%20process.txt)) ### 습관: 역량 제곱 AI를 활용해서 역량을 높이기 → AI를 활용해서 "AI를 활용해서 역량을 높이는 일"을 더 잘하기 예: - [위키의 품질](https://wiki.g15e.com/pages/Wiki%20gardening%20rules.txt)을 정량 평가하는 도구를 [바이브 코딩](https://wiki.g15e.com/pages/Vibe%20coding.txt)으로 만들기 (외톨이 문서 → 격리된 섬 → 평균 최단 경로) - [Hammerspoon LLM script](https://wiki.g15e.com/pages/Hammerspoon%20LLM%20script.txt)를 [바이브 코딩](https://wiki.g15e.com/pages/Vibe%20coding.txt)으로 만들기 - [에이전트 기반 코딩](https://wiki.g15e.com/pages/Agentic%20coding.txt)을 돕는 도구를 [바이브 코딩](https://wiki.g15e.com/pages/Vibe%20coding.txt)으로 만들기 ### 습관: 사고를 가다듬기 <형식 언어>랑 친해지기(참고: [자연어로 작성된 명세서의 한계](https://wiki.g15e.com/pages/Specification%20written%20in%20natural%20language.txt)) - 의도를 명확히 표현할 수 있음 - LLM의 출력을 검증할 수 있음 - 사고를 더 명확하게 할 수 있음 ### 딜레마: AI를 쓰면 역량이 줄어든다? AI랑 협업을 잘 하려면 역량을 높여야 하는데, AI랑 협업을 하면 역량이 낮아진다고? - 생성 AI를 써서 공부한 그룹이 시험을 더 잘봤지만 이후에 AI를 못쓰게 했더니 애초에 안썼던 그룹보다 오히려 성적이 낮아짐 ([Generative AI can harm learning](https://wiki.g15e.com/pages/Generative%20AI%20can%20harm%20learning.txt)) - LLM을 이용해서 에세이를 쓴 집단이 뇌가 가장 덜 활성화됨 ([Your Brain on ChatGPT](https://wiki.g15e.com/pages/Your%20Brain%20on%20ChatGPT.txt)) ### 의문1. 바보상자란 대체 무엇인가 🤔 "문자를 습득한 사람들은 기억력을 사용하지 않게 되어 오히려 더 많이 잊게 될 것입니다." --*문자를 발명한 테우스에게 <이집트>의 왕 타무스가 한 말(이라고 <소크라테스>가 한 말(이라고 <플라톤>이 <파이드로스>에 **글로 남김**))* "A balanced approach is advisable, one that might leverage AI for routine assistance but still challenges individuals to perform core cognitive operations themselves." *--[Your Brain on ChatGPT](https://wiki.g15e.com/pages/Your%20Brain%20on%20ChatGPT.txt)* "Is it safe to say that LLMs are, in essence, making us dumber? No!" *--[Your Brain on ChatGPT](https://wiki.g15e.com/pages/Your%20Brain%20on%20ChatGPT.txt)의 저자가 작성한 FAQ 중* 심지어 플라톤도 글쓰기 전체를 비판하지는 않았다. 참고: [글에 대한 플라톤의 비판](https://wiki.g15e.com/pages/Plato's%20criticism%20on%20written-texts.txt) ### 의문2. 모든 역량이 소중한가? 🤔 "공학 계산기를 써서 공부한 그룹이 시험을 더 잘봤지만 이후에 공학 계산기를 못쓰게 했더니 애초에 안썼던 그룹보다 오히려 성적이 낮아짐" (이게 정말 놀랄 일인가?) 이런 역량이 예전만큼 중요할까? - <문법 강조> 없이 맨눈으로 괄호 짝 맞추기 - <자동완성> 없이 를 외워서 입력하기 - 파워포인트 슬라이드 잘 만들기 지금은 중요하지만 앞으로는 덜 중요해질 역량 또는 그 반대가 무엇인지 고민해보기 ### 딜레마: 활용보다 탐험 [탐험-활용 딜레마](https://wiki.g15e.com/pages/Exploration-exploitation%20dilemma.txt) 상황. 좋은 은 다음 상황에서 "탐험" 빈도를 높임: - 시도 횟수가 많이 남은 경우 - 불확실성이 큰 경우 (아직 탐험을 충분히 해보지 않아서, 또는 상황이 빠르게 바뀌어서) 하지만 인간은? - **경로의존성**: 머리를 계속 써야 40대 즈음 시작되는 인지 저하를 막거나 늦출 수 있음 (탐색을 안할수록 탐색을 더 못하게 됨) - **성실성 증가**: 나이가 들면 성실성([Big-5](https://wiki.g15e.com/pages/Big%20Five%20personality%20traits.txt) conscientiousness)이 높아지는 경향 (탐험 감소) - **<기대 수명> 증가**: 기대 수명의 꾸준한 증가. 관리를 잘하면 <건강 수명>도 증가 (어쩌면 [140살도 가능?](https://wiki.g15e.com/pages/Lifespan.txt)) [활용보다 탐험](https://wiki.g15e.com/pages/Exploration%20over%20exploitation.txt)에 힘을 줘보자. 특히 요즘과 같이 **불확실성**이 높으면 더더욱 탐험이 중요. ## 3. 불확실성에 대응하기 [애자일 방법론](https://wiki.g15e.com/pages/Agile%20methodology.txt)의 기본 접근 방법: "예측이 어려우면 기민하게 대응하자" 소프트웨어가 아니라 사람 자체가 기민해진다는 것은? ### 자연석 기법 써볼만한 도구나 실천법을 발견하면 당장 필요 없더라도 일단 기록해놓고 기회가 생기면 써보기 (에서 차용) --- "Optionality: The right, but not the obligation, to take action." -- ### 편향된 팔랑귀: 안된다는 말보다 된다는 말에 더 편향되기 어차피 불확실하다면 안될거라고 생각하고 안하기 보다는 될거라고 믿고 해보기 --- "특출난 노학자가 무언가가 가능하다고 말하면 거의 옳을 것이다. 하지만 그가 무언가가 불가능하다고 말하면 아마도 틀릴 가능성이 높다. (When a distinguished but elderly scientist states that something is possible, he is almost certainly right. When he states that something is impossible, he is very probably wrong.)" --[Arthur C. Clarke](https://wiki.g15e.com/pages/Arthur%20C.%20Clarke.txt) [#ref](https://wiki.g15e.com/pages/Arthur%20C.%20Clarke.txt#impossible) 이 격언은 두 방향에서 이롭다. 1. 누군가가 내게 안된다는 말을 해도 영향을 덜 받기 2. 내가 누군가에게 경솔하게 안된다는 말을 하지 않기 ### 정보 채널 관리하기 <시스템 동역학> 관점에서 위키가 Stock이라면 정보 채널은 Flow **알아야 해서 알고 있는 채널 유지하기**: [Feedly](https://wiki.g15e.com/pages/Feedly.txt), <트위터>, 릴리즈 노트, 뉴스레터, <레딧>, 해커뉴스, 팟캐스트, 유튜브 등 **알아야 하는데 모르고 있던 채널 발견하기**: , , 우연히 발견한 글이 흥미로우면 그런 글을 더 자주 발견할 방법 찾기(팔로우, RSS 등록 등) **몰라도 되는데 흘러 들어오는 정보 줄이기**: (아직 잘 못하는 중. [정규식](https://wiki.g15e.com/pages/Regular%20expression.txt), [무료 LLM](https://wiki.g15e.com/pages/Free%20LLMs.txt) 등 활용하여 잡음비가 높은 RSS 피드에 필터 걸기?) ### 스스로를 의심하기 중요한 신호가 아무리 들려와도 수용할 준비가 되어 있지 않으면 소용이 없음 나는 내 생각을 뒤집을 준비가 됐나? ([XP](https://wiki.g15e.com/pages/Extreme%20programming.txt)의 모토는 "변화를 수용하라 Embrace change") - [검색어를 입력하면 한 달 뒤에 결과가 나오는 세상](https://wiki.g15e.com/pages/When%20Searches%20Take%20a%20Month.txt) - [AI 지원 프로그래밍을 위한 새 실천법](https://wiki.g15e.com/pages/New%20practices%20for%20AI-aided%20programming.txt) [의견 형성을 늦추기](https://wiki.g15e.com/pages/Be%20a%20slow%20opinionist.txt) ([Lean software development](https://wiki.g15e.com/pages/Lean%20software%20development%20(book.txt))에서 말하는 [Decide as late as possible](https://wiki.g15e.com/pages/Decide%20as%20late%20as%20possible.txt)과 유사) 특히 나이를 먹을수록, 아는 게 많을수록, 사회적 지위가 높을수록 중요 ### 스스로를 의심하지 않기 나 대신 날 의심해주는 사람들(😇)이 많은 상황에 놓여 있다면 스스로를 의심하지 않기 예: 프론트엔드 개발자나 디자이너라면 [성급한 UI 디자인 종말론](https://wiki.g15e.com/pages/Premature%20death%20of%20UI%20design.txt) 같은 얘기에 휘둘리지 말기 (단 자신의 사회적 위치를 꾸준히 재평가하기) ### 지식 갱신하기 낡은 지식 갱신하기 (일종의 [리팩토링](https://wiki.g15e.com/pages/Refactoring.txt)) - 익숙한 방식이 있더라도 더 나은 방식이 있는지 검색해거나 [LLM](https://wiki.g15e.com/pages/Large%20language%20model.txt)과 대화해보기 - 예전에 공부한 내용에 대한 최신 동향을 통해 알아보기 - 아침에 눈뜨면 하나 돌려놓고 샤워하기 지식의 유통기한 또는 감가상각 따져보기 특히 나이를 먹을수록, 아는 게 많을수록, 사회적 지위가 높을수록 중요 ## 끝 감사합니다