# Journal 2025-09 > ## 회고 ## 회고 지난 몇 개월 간 참여했던 프로젝트 하나가 정식으로 오픈해서 상용 서비스를 시작했고 유료 사용자도 생겼고 신문 및 방송에도 나왔다. 잘 됐으면 좋겠다. <드와케시 파텔>+<리차드 서튼>의 대담([Father of RL thinks LLMs are a dead end](https://wiki.g15e.com/pages/Father%20of%20RL%20thinks%20LLMs%20are%20a%20dead%20end.txt))과 [What Is Intelligence](https://wiki.g15e.com/pages/What%20Is%20Intelligence.txt)를 주제로 한 의 강연을 보고 많은 영감을 받았다. Claude Sonnet 4.5와 OpenAI Sora 2.0이 발표됐다. 짧은 글을 몇 개 썼다: - [큰 세상 가설과 제한된 합리성](https://wiki.g15e.com/pages/The%20big%20world%20hypothesis%20and%20the%20bounded%20rationality.txt) - [안티키테라와 리처드 서튼의 교차점](https://wiki.g15e.com/pages/Intersection%20of%20Antikythera%20and%20Sutton.txt) - [개념적 인플레이션](https://wiki.g15e.com/pages/Conceptual%20Inflation.txt) - [우생학은 왜 나쁜가](https://wiki.g15e.com/pages/What%20makes%20eugenics%20bad.txt) - [AI 시대의 의식역량](https://wiki.g15e.com/pages/Capacity%20of%20consciousness%20in%20the%20AI%20era.txt) 좋은 분들이 있는 작은 온라인 모임에 참여한 덕에 여러가지 좋은 영향을 받고 있다. LLM과의 대화 빈도가 평소보다 늘었다. 모임 덕에 호기심이 커졌기 때문인 것 같다. 감사한 일이다. ## 일지 ### 2025-09-29 [The Big World Hypothesis and its Ramifications for Artificial Intelligence](https://wiki.g15e.com/pages/The%20Big%20World%20Hypothesis%20and%20its%20Ramifications%20for%20Artificial%20Intelligence.txt)를 읽었다. 이 주장에 따르면 세상의 어떤 문제들은 에이전트의 계산 능력이 아무리 발달해도 완벽한 풀이를 찾아낼 수 없다(또는 완벽한 풀이를 찾아서 수행하는 게 이상적인 전략이 아니다). 내 생각에 [The big world hypothesis](https://wiki.g15e.com/pages/The%20big%20world%20hypothesis.txt)라는 개념은 <허버트 사이먼>의 [제한된 합리성](https://wiki.g15e.com/pages/Bounded%20rationality.txt)을 [AI](https://wiki.g15e.com/pages/Artificial%20intelligence.txt) 맥락에서 다시 표현한 것으로 보인다. 에이전트는 경험을 통해 <생태적 합리성>을 획득하고 수행하는 것. 이 생각을 조금 정리해보았다. [큰 세상 가설과 제한된 합리성](https://wiki.g15e.com/pages/The%20big%20world%20hypothesis%20and%20the%20bounded%20rationality.txt) --- [안티키테라와 리처드 서튼의 교차점](https://wiki.g15e.com/pages/Intersection%20of%20Antikythera%20and%20Sutton.txt). ### 2025-09-25 [구글](https://wiki.g15e.com/pages/Google.txt)에서 Chrome DevTools [MCP](https://wiki.g15e.com/pages/Model%20context%20protocol.txt)를 공개했다. 지금까지는 [s4](https://wiki.g15e.com/pages/Semi-structured%20software%20spec.txt)로 백엔드 또는 CLI 종류의 작업을 주로 했는데 이제 웹 프론트엔드도 시도해보면 좋을 것 같다. ### 2025-09-24 필요에 의해 <시계열 예측>을 공부하는 중인데 재밌다. 필요에 의해 하는 공부는 대체로 효율이 좋다. 특히 나는 성실성이 낮은 편이어서 더 그런 것 같다. --- 지인들이 있는 회사에 구경가서 잠깐 [짝 프로그래밍](https://wiki.g15e.com/pages/Pair%20programming.txt)을 했다. --- [Supremacy: AI, ChatGPT, and the Race that will Change the World](https://wiki.g15e.com/pages/Supremacy%20-%20AI,%20ChatGPT,%20and%20the%20Race%20that%20will%20Change%20the%20World.txt)를 계속 읽고 있다. 가 이런 글을 썼다고 한다: > …saving a life a rich country is substantially more important than saving a life in a poor country because richer countries have more innovation, and their workers are more economically productive. 나는 <효율적 이타주의>를 좋아하는데, 이런 주장은 공감이 되지 않는다. 왜 그런지 고민을 해봐야겠다. ### 2025-09-21 새벽에 의 <2025년 9월 4일> 강연 [What is Intelligence?](https://www.youtube.com/watch?v=gs38tMxZseA) 를 봤다. 생명의 탄생, 진화, 지능, 의식을 "계산"이라는 관점 하나로 엮어서 설명하는 내용이었는데 아주 흥미로웠다. 설명이 너무 깔끔해서 (설명의 경제성이 지나치게 높아서) 오히려 경계심이 들 정도. <같은 제목의 책>이 온라인에 공개되어 있다. 아직 읽지 않았지만 아마도 올해의 책이 될 것 같다. --- [지질학적 시간대](https://wiki.g15e.com/pages/Eons.txt)를 대략적으로 공부하여 eon (대략 수억-수십억년 단위)과 era (대략 수천만-수억년 단위)를 정리했고, 이에 따라 [인간 진화사](https://wiki.g15e.com/pages/Human%20evolutionary%20history.txt)도 갱신했다. 신생대 거의 끝에 가서야 대형 영장류에서 호미니드 계열이 분리되는 걸 정리하다보니 허무함(?) 같은 게 느껴지기도 한다. 다윈은 장엄함을 느끼던데. 공부하는 과정에서 <국제층서위원회(International Commission on Stratigraphy)>라는 게 있다는 걸 알게 됐다. 다음엔 period (대략 수백만년-수천만년 단위) 단위를 해봐야겠다. 익숙한 "[쥐라기](https://wiki.g15e.com/pages/Jurassic%20period.txt)"는 period 단위다. 목표는 epoch (대략 수십만년-수천만년 단위)까지 정리하는 것. 여기까지 정리하면 [진화심리학](https://wiki.g15e.com/pages/Evolutionary%20psychology.txt)에서 흔히 말하는 <홍적세>를 만날 수 있다. ### 2025-09-18 대립되는 분야([페미니즘](https://wiki.g15e.com/pages/Feminism.txt)과 [진화심리학](https://wiki.g15e.com/pages/Evolutionary%20psychology.txt))의 교과서 두 권을 넣고 [GraphRAG](https://wiki.g15e.com/pages/GraphRAG.txt) 인덱싱을 했더니 10만원이 나왔다😇 [LazyGraphRAG](https://wiki.g15e.com/pages/LazyGraphRAG.txt)는 연구만 나오고 아직 코드에 통합되지는 않았구나. 쿼리도 생각보다 느려서(`--method=DRIFT`) 살짝 실망했다. 그래도 텍스트에서 [Knowledge graph](https://wiki.g15e.com/pages/Knowledge%20graph.txt)를 추출하고 (여기까진 평범), 을 한 다음 커뮤니티 단위 요약을 만든다는 접근(여기가 훌륭)은 좋아보인다. --- 쓸 일이 있어서 몇 년 만에 를 다시 공부하고 있다. ### 2025-09-17 [How People Use ChatGPT](https://wiki.g15e.com/pages/How%20People%20Use%20ChatGPT.txt)를 읽었다. 다른 내용보다도 "privacy-preserving automated pipeline"에 관심이 간다. 사람 대신 LLM이 읽고 사전에 정의해둔 범주() 내에서 분류한다는 점 등은 마침 얼마 전에 한 프로젝트에서 고안했던 방식과 거의 동일했다. ### 2025-09-15 <을지로3가역> 근처에서 지인들을 만나서 [LLM](https://wiki.g15e.com/pages/Large%20language%20model.txt)을 주제로 수다를 떨었다. ### 2025-09-13 "자동", "지능", "에이전트" 같은 단어들의 [개념적 인플레이션](https://wiki.g15e.com/pages/Conceptual%20Inflation.txt)에 대해 생각해봤다. --- 지난 8월에 공개된 [On the Theoretical Limitations of Embedding-Based Retrieval](https://wiki.g15e.com/pages/On%20the%20Theoretical%20Limitations%20of%20Embedding-Based%20Retrieval.txt)을 훑어 읽었다. 읽다보니 작년에 에서 공개한 [Contextual retrieval](https://wiki.g15e.com/pages/Contextual%20retrieval.txt)이 생각나길래 조금 더 자세히 읽어봤다. [BM25](https://wiki.g15e.com/pages/Okapi%20BM25.txt)와 [임베딩](https://wiki.g15e.com/pages/Embedding%20(machine%20learning.txt))을 조합한 방식. 덕분에 대충만 알고 있던 [BM25](https://wiki.g15e.com/pages/Okapi%20BM25.txt)에 대해서도 약간 더 이해하게 됐다. ### 2025-09-08 [우생학은 왜 나쁜가](https://wiki.g15e.com/pages/What%20makes%20eugenics%20bad.txt)에 대해 생각해봤다. ### 2025-09-07 [Why Language Models Hallucinate](https://wiki.g15e.com/pages/Why%20Language%20Models%20Hallucinate.txt)를 읽었다. [Supremacy: AI, ChatGPT, and the Race that will Change the World](https://wiki.g15e.com/pages/Supremacy%20-%20AI,%20ChatGPT,%20and%20the%20Race%20that%20will%20Change%20the%20World.txt)를 읽는 중인데, <트랜스휴머니즘>이 [우생학](https://wiki.g15e.com/pages/Eugenics.txt)에서 파생되었다는 사실을 알게 됐다. 참고: [트랜스휴머니즘과 우생학](https://wiki.g15e.com/pages/Transhumanism%20and%20eugenics.txt) ### 2025-09-05 [Paired Open-Ended Trailblazer (POET): Endlessly Generating Increasingly Complex and Diverse Learning Environments and Their Solutions](https://wiki.g15e.com/pages/Paired%20Open-Ended%20Trailblazer%20(POET.txt)%20-%20Endlessly%20Generating%20Increasingly%20Complex%20and%20Diverse%20Learning%20Environments%20and%20Their%20Solutions)를 읽었다. [Uber AI Labs](https://wiki.g15e.com/pages/Uber%20AI%20Labs.txt)에서 2019년에 공개한 논문. ### 2025-09-04 [AI 시대의 의식역량](https://wiki.g15e.com/pages/Capacity%20of%20consciousness%20in%20the%20AI%20era.txt)에 대해 생각해봤다. ### 2025-09-01 몇 개월 간 참여했던 프로젝트가 정식으로 상용 서비스를 시작했다.