Ash Space
GitHubHuggingFace
  • Contents
  • 🥑Resume / CV
    • Reseume / CV
  • 📄Paper Review
    • Paper List
      • [2017] Attention is all you need
      • [2023] CoVe : Chain of Verification Reduces Hallucination in Large Language Models
      • [2024] RAG Survey : A Survey on Retrieval-Augmented Text Generation for Large Language Models
      • [2023] Interleaving Retrieval with Chain-of-Thought for Knowledge-Intensive Multi-Step Questions
      • [2024] Take a Step Back: Evoking Reasoning via Abstraction in Large Language Models
      • [2020] ColBERT: Efficient and Effective Passage Search via Contextualized Late Interaction over BERT
      • [2024] Retrieval Augmented Generation (RAG) and Beyond
      • [2009] Reciprocal Rank Fusion outperforms Condorcet and individual Rank Learning Methods
      • [2024] Don't Do RAG : When Cache-Augmented Generation is All you Need for Knowledge Tasks
      • [2024] Text2SQL is Not Enough : Unifying AI and Database with TAG
  • 🗂️Research Article
    • Reference List
      • Dataset
      • LLM
      • Prompt Engineering
      • LLMops
      • RAG & Agent
      • Etc
    • Compounded AI System : The Shift from Models to Compound AI Systems
    • LLM과 Grounding
    • Essence of RAG
    • How to reduce Hallucinations
    • Golden Gate Claude Review
    • Editorial Thinking
    • Embedding을 평가하는 방법
    • 나야, Chunk
    • 당신.. Chunking이 뭔지 정확히 알아..?
    • 그래서 제일 좋은 Chunking이 뭔데?
    • 웅장한 대결 AI Agent와 Agentic AI
    • UV써도 괜찮아~ 딩딩딩딩딩
    • 아무도 RAG 평가 셋 만드는 것에 관심가지지 않아~
    • Linguistic Prompts
    • Chroma야, Chunking 평가를 어떻게 한다고?
    • Generations Never Easy
    • Model Context Protocol
    • Chill칠치 못한 Function Calling
    • RAG 평가지표 정복하기
    • LLM Quantization 방법론 알아보기
    • LLM은 더우면 헛소리를 해?
    • Text2SQL 넌 내꺼야!
  • 🏵️Conference
    • 일할맛 판교 3월 세미나
    • LangChainOpenTutorial를 진행하며
    • Talk: Prompt and Language The Science of Prompts 후기
    • 2024년 회고
    • 제 7회 Kako Tech Meet Up 후기
    • Moducon 2023 행사 후기
    • GDGXGDSC DevFest Happy Career 행사 후기
    • 모두를 위한 한국어 오픈액세스 언어모델 못다한 이야기 (feat. 모두연) #1
    • 모두를 위한 한국어 오픈액세스 언어모델 못다한 이야기 (feat. 모두연) #2
    • 맨땅에서 구축해본 개인화시스템 구축기 Session 후기
  • ♟️Basic
    • 00 Introduction
    • 01-1 LLM 지도
    • 01-2 LLM의 중추 트랜스포머 아키텍처 살펴보기
Powered by GitBook
On this page
  1. Research Article

Editorial Thinking

2024년 11월 3일

Last updated 6 months ago

세상의 변화가 매우 급격하게 진행되고 있으며 변화를 일으키는 중심에는 매우 많은 요소가 존재한다. 과학기술발전의 분야에서 바라보았을 때 Gen.AI (생성형 ai)를 논하지 않을 수 없을 것이라 생각한다.

그런데 이에따른 부작용도 조금씩 모습을 드러내는듯하다. 세상은 Gen.AI에 열광하고 많은 회사와 기업들이 이를 활용할 수 있는 방향으로 나아가고 있다. 다만, 기술에 너무 큰 초점이 맞추어진것이 아닌가 하는 생각이 든다. 하나의 예를 들어보자면, 잘 갖추어진 시스템을 ai 및 다양한 최신 기술의 도입을 위해서 시스템 전체 혹은 부분의 재구축을 수행하는 것과 같이 꼭 필요한 부분이 아님에도 기술의 도입과 적용을 꾀하는 경우가 생각이상으로 많아진 듯하다. 물론 그것에 반대하는 건 아니다. 다만 기술의 도입으로 인해 기존에 존재하지 않던 새로운 리스크가 생기고 원래 잘 되오던 일이 조그마한 부분이라도 삐걱거리게 된다면 곰곰히 그 시점에서 한번 더 도입/적용을 검토해봐야 한다고 생각한다.

풀어서 이야기를 꺼냈지만 결국 정리하자면 다음과 같다. Gen.AI의 도입과 적용은 분명 많은 잠재가능성을 보유하고 있고 혁신적인 패러다임임에 적극동의하지만 이 기술을 적재적소에 잘 활용하고 사용한다는 것은 꽤나 까다롭게 바라보는게 맞지 않겠냐는 것이다. 근데 현실적으로 방금까지 말한 이야기를 결정하는것은 필자와 같은 일개 연구원이 할 수 있는 영역은 아니다. 이것은 회사의 대표 혹은 최소한 팀의 리더의 레벨에서 고민하고 결정해야하는 내용이라 생각한다. 아쉽게도 현실적으로는 나의 생각과 다른 결정이 내려지는것이 많을 것이고 이에 따라 우리는 행동할 수 밖에 없게 될 것이다.

한번이라도 위와 같은 생각을 해본적이 있다면 나는 "Editorial Thinking (최혜진 지음)"이라는 책을 읽어보길 천한다. 아이러니하게도 이 책은 인문학적인 내용만 가득한 책이다. 기술관점, Gen.AI 이런거 하나도 몰라도 읽어볼 수 있는 이 도서를 필자는 이미 주변 동료들에게 권유했으며 article로 남겨야만 한다고 생각한 굉장한 책으로 느꼈다.

먼저, 프롤로그에 이러한 문장이 등장한다. "... 정확하게는 온 국민이 준 에디터가 된 게 아닌가 싶다. ..." 보자마자 이유모를 공감을 너무나 깊게 느꼈다. 물론 다른의미에서. 작가분은 과거의 에디터 직군이 스마트폰, sns의 보급과 공급된 정보가 많아지면서 위와 같은 말을 하셨는데, 나는 당연히 Gen.AI의 보급과 발전으로 관련된 서비스를 이용하는 사람과 서비스를 만드는 사람 모두가 마치 에디터와 같은 역할을 지니게 되었다고 생각이 들었다.

작가분이 말하는 "에디토리얼 씽킹"은 사람의 인지활동을 조금 더 고도화시킨 생각 훈련 방식이라고 한다. 책의 내용을 인용해보면 편집은 우리가 세상을 인식하고 기억하는 방식 그 자체이며 우리의 뇌는 모든 정보를 기억하지 않고 그대로 사용하지도 않는다고 한다. 시시각각 정보에 대한 편집행위가 이루어지고 있는것이다. 즉, "에디토리얼 씽킹"은 정보와 대상에서 의미와 메시지를 도출하고 그것을 의도한 매체에 담아 설득력있게 전달하기 위해 편집하고 구조화하는 일련의 사고방식인 것이다. LLM의 등장으로 우리는 사람이 할 수 있는 일을 점점 AI가 대체하는 방향으로 발전하고 있다. 그렇다면 사람의 생각방식을 모방하기도 해야한다고 생각하는데 그러한 관점에서는 너무 많은 부족함이 있다고 생각한다. 이제까지 등장한것은 기껏해야 XoT와 같은 사고방식과 Step-by-Step의 절차를 따른 방식의 변형들뿐이라고 보여졌다. 또한 에디팅은 의미화되기 전의 '잡음'속에서 특정 정보에 주목해서 '신호', 다시 말해 의미의 맥락을 만들어가는 작업이라고 하셨다. 이걸 보자마자 필자는 문맥속에서 특정한 정보를 추출하는 작업 혹은 이와 속성이 비슷한 작업들은 모두 이 책에서 언급한 방식을 적용해볼 수 있다고 들었다. 이밖에도 12개 가량되는 생각의 단계를 소개하며 이에 따른 에디터의 관점과 사고방식을 설명해준다. 보면 감탄밖에 안나오더라.

RAG를 주 업무로 삼아서 굉장히 큰 충격을 느낀건지도 모르겠다. 읽는내내 아이디어가 샘솟는 느낌이었다. 이를 바탕으로 여러가지 해볼 작업이 많이 생각나는데 직장동료와 얘길해봤더니 또 굉장히 실속있는 조언을 받아서 이것저것 작업을 해보려고 한다. RAG에 관심있는 사람이 있다면, Gen.AI에 관심있는 사람이 있다면 꼭 한번 읽어보길 권한다.

이제부터는 어떠한 관점에서 이 책을 소개하였는지, 책의 일부내용에 대한 개인적인 의견을 덧붙여서 리뷰해보는 시간을 가져보도록 하자. 우선 개인적으로 아끼는 도서임에도 소개해준 에게 너무 고맙다는 말을 전한다 🥹🥹

🗂️
절친한 동생
Editorial Thinking - 최혜진