# Journal 2024-01 > 2024년 1월 일지 <2024년 1월> 일지 ## 월간 회고 ## 일지 ### 2024-01-28 [Cook2LTL: Translating Cooking Recipes to LTL Formulae using LLMs](https://wiki.g15e.com/pages/Cook2LTL%20-%20Translating%20Cooking%20Recipes%20to%20LTL%20Formulae%20using%20LLMs.txt) 이런 방향 참 좋다. LLM을 이용해서 자연어 레시피를 linear temporal logic으로 형식화하기. 형식화된 레시피는 당연히 모호성도 줄고 전통적인 로직으로 다루기도 수월. ### 2024-01-26 에서 새 [임베딩](https://wiki.g15e.com/pages/Embedding%20(machine%20learning.txt)) 모델이 나왔다: `text-embedding-3-small`, `text-embedding-3-large`. ### 2024-01-10 [ShadowBox training](https://wiki.g15e.com/pages/ShadowBox%20training.txt) GPT를 만들어서 프로그래밍 관련 훈련을 해봤다. 제법 유용하다. 원래 ShadowBox training은 정해진 시나리오, 정해진 선택지, 정해진 답변 등으로 구성되고 뭘 선택하건 간에 시나리오가 정적으로(미리 정해진대로) 진행되는 반면, GPT로 만들면 선택지를 주관식으로 쓸 수 있고, 이에 따라 피드백과 이후 시나리오 진행이 동적으로 바뀔 수 있어서 좋다. AI는 아첨을 하는 경향이 있으니([아첨하는 AI](https://wiki.g15e.com/pages/Sycophantic%20AI.txt)) 이런 프롬프트를 추가하는 게 좋다: > Assume that the user's decision is almost always worse than yours. Your role is not to praise the user but to encourage learning through critical feedback. ### 2024-01-07 [The ShadowBox approach to cognitive skills training](https://wiki.g15e.com/pages/The%20ShadowBox%20approach%20to%20cognitive%20skills%20training.txt)을 읽었다. ### 2024-01-03 TIL: [ShadowBox training](https://wiki.g15e.com/pages/ShadowBox%20training.txt)이라는 전문성 훈련 방식에 대해 알게 됐다. ### 2024-01-02 TIL: "anachronistic" ana-는 against, khronos는 시간. 직역하면 "시간에 맞지 않는"이라는 뜻. 예문: "His logical system has no symbols corresponding to the quantifiers; so even to call it a restricted system of quantificational logic is anachronistic." 위 맥락에 맞게 의역하면… "조지 부울의 논리 체계에는 양화사에 대응하는 기호도 없었다. 따라서 그의 체계를 '제한적인 양화논리'라고 칭하는 것조차 시대를 고려한다면 적절한 말이 아니다." 예문 출처: https://plato.stanford.edu/entries/logic-firstorder-emergence/