1/09/2026

데이터 엔지니어, 파이프라인이 아닌 제품을 설계하라

과거의 데이터 엔지니어링은 “전달”에 집중했습니다. 소스 시스템에서 데이터를 가져와서 정제하고, 데이터웨어하우스에 적재하는 것만으로도 역할을 다했다고 평가 받았습니다. 하지만 데이터의 양이 폭증하고 비즈니스의 요구사항이 복잡해진 오늘날에는 단순히 데이터를 옮겼다는 것만으로는 충분하지 않습니다.

대부분 기업이 데이터 플랫폼을 구축했지만, 현업에서는 쓸만한 데이터가 없다거나 데이터의 신뢰도가 낮다라는 이야기를 하기도 합니다. 왜 이런 상황이 발생할까요? 이는 데이터 엔지니어가 “주문받는 사람”의 역할에 머물기 때문입니다. 이제 데이터 엔지니어는 스스로를 제품을 만드는 사람으로 재정의해야 합니다.

그래서 Data as a Product라는 개념이 등장합니다. 기존의 데이터는 서비스나 제품에서 나온 부산물로 취급되었습니다. 그러나 데이터를 제품으로 바라보는 관점(Data as a Product)에서는 데이터를 고객에게 가치를 전달하기 위해 설계된 제품으로 정의합니다.

Source: https://www.analytics8.com/blog/building-effective-data-products-a-step-by-step-guide/

왜 이런 개념이 나왔을까요?

데이터 소스가 다양해지면서 파이프라인만으로는 관리 효율이 떨어지게 되었고, 데이터 생산자와 소비자 간의 소통 부재로 인한 소통이 저하되었고, 기술적 성취보다는 비즈니스 성과로 데이터의 존재 가치를 증명해야 하는 시대적 상황이기 때문입니다.

데이터 엔지니어가 제품 관리자처럼 생각한다는 것은 단순히 기획 업무를 한다는 것은 아닙니다. 관점의 변화가 필요합니다.

첫째, 사용자 중심 사고가 필요합니다. PO는 항상 “제품을 누가 사용하는가?” 에 대해서 질문합니다. 데이터 엔지니어도 마찬가지입니다. 그럼 어떤 사고를 해야 할까요?

  • 페르소나 정의: 데이터 분석가, 데이터 사이언티스트, 비즈니스 의사 결정권자, 현업 등 각 사용자별로 데이터를 통해 해결하려는 문제가 무엇인지 파악해야 합니다.
  • 사용자 여정 분석: 사용자가 데이터를 발견하고, 이해하고, 활용하여 인사이트를 얻기까지의 과정에서 겪는 Pain-points를 분석해야 합니다.

둘째, 결과 중심의 사고를 해야 합니다. Output과 Outcome을 명확하게 정의해야 합니다.

  • Output: 10개의 파이프라인을 구축하고 100개의 테이블을 생성
  • Outcome: 마케팅 캠페인 최적화로 인한 매출 15% 상승, 의사 결정 속도 2배 향상 등 기술적 구현(Output)에 매몰되지 않고, 비즈니스에 어떤 영향을 주는지 집중

셋째, 로드맵과 우선순위를 설정해야 합니다.

모든 데이터를 다룰 수는 없습니다. PO처럼 비즈니스 임팩트와 구현 난이도를 고려하여 제품 백로그를 관리해야 합니다.

그럼 실무에는 어떻게 적용을 해야 할까요? 재밌는 점은 데이터 제품도 일반적인 소프트웨어 제품처럼 Life-cycle을 가진다는 것입니다.

첫째, 문제를 발견하고 기획을 해야 합니다. 사용자와 인터뷰를 하면서 “어떤 데이터가 필요해요?”라고 묻기보다는 “어떤 질문에 답을 하고 싶으세요?” 라고 질문해야 합니다. 예시를 들면 “로그 데이터가 필요해요.” 보다는 “고객이 결제 페이지에서 이탈하는 이유를 알고 싶어요.”로 문제를 재정의 해야 합니다.

둘째, 설계 및 Data Contract를 정의해야 합니다. 데이터 생산자와 소비자 간의 약속(스키마, 품질 지표, 갱신 주기 등)을 정의합니다. 이렇게 해야 소스 시스템의 변경으로 인해 파이프라인이 깨지는 현상을 방지할 수 있습니다.

셋째, 개발 및 모니터링을 해야 합니다. 제품이 출시된 후 잘 작동하는지 모니터링 하듯이, 데이터의 건강 상태를 체크해야 합니다. 데이터 가용성/최신성을 보장해야 하고, 구체적인 품질 목표 수치를 설정해야 합니다.

위에서 언급한 것처럼 데이터 엔지니어의 역할 범위가 넓어지게 되면 모든 도메인의 데이터를 이해하고 가공하는 것이 가능할까요? 저는 불가능하다고 생각됩니다. 그래서 중요한 것이 “책임의 분산”입니다.

  • 도메인 중심 소유권: 각 비즈니스 부서가 자신들의 데이터를 제품으로서 책임지고 관리해야 합니다.
  • 셀프 서비스 제공: 데이터 엔지니어는 각 부서가 데이터를 제품화할 수 있는 셀프 서비스 플랫폼을 제공해야 합니다.

위에서 언급한 환경을 어떻게 적용 할 수 있을까요?

데이터 제품도 MVP(Minimum Viable Product)처럼 시작해야 합니다. 처음부터 완벽하게 만들 수는 없습니다. 가장 시급한 문제를 해결하는 작은 데이터부터 제공하며 피드백 교류를 해야 합니다.

데이터 엔지니어가 제품을 잘 만들어도 소비자가 쓰지 못하면 소용 없습니다. 사용자를 대상으로 데이터 구조 및 활용법을 지속적으로 교육해야 합니다.

끝으로,

데이터 엔지니어링의 성공 지표는 “데이터 제품의 채택률”과 “사용자 만족도”가 되어야 합니다. 기술적으로 잘하는 것은 기본입니다. 기본위에 비즈니스와 사용자에 대한 이해라는 옷을 입을 때, 데이터 엔지니어는 단순한 기술 지원 역할을 넘어 비즈니스의 성장을 견인하는 핵심 파트너로 거듭날 수 있습니다.


[Tip] 데이터 엔지니어를 위한 제품 관리자 체크 리스트

데이터 엔지니어가 새로운 파이프라인을 구축하거나 데이터 제품을 기획할 때, 스스로에게 던져야 할 질문을 정리해봤습니다. 참고해주세요.

[ ] 누가 이 데이터를 사용하는가?

[ ] 사용자는 이 데이터로 어떤 비즈니스 문제를 해결하려고 하는가?

[ ] 이 데이터가 생성되지 않거나 틀렸을 때 발생하는 문제점은 무엇이고, 기회비용은 얼마인가?

[ ] 기존에 유사한 데이터가 있는가? (e.g 데이터 중복 방지)

[ ] Data contact이 체결 되었는가?

[ ] 데이터 신선도 기준은 무엇인가? (e.g 매일 오전 8시 업데이트, 실시간 등)

[ ] 민감 정보(개인정보 등)에 대한 비식별화 처리가 되었는가?

[ ] 데이터 파이프라인 가시성이 확보 되었는가? (e.g 장애 발생 시 알림 등)

[ ] 데이터 Lineage가 기록되고 있는가? (e.g 데이터 출처 및 흐름 파악)

[ ] 사용자가 데이터를 찾는데 걸리는 시간이 단축 되었는가?

[ ] 이 데이터 제품의 채택률은 얼마나 되는가?

[ ] 사용자 피드백을 수집할 채널이 준비되어 있는가?

12/30/2025

가독성의 은밀한 비용, 코드 포맷팅이 LLM 예산을 어떻게 소모하는가?

아카이브(arXiv.org)에서 흥미로운 논문을 읽었고 내용을 정리해봅니다.

소프트웨어 엔지니어링 역사에서 “가독성”은 성역과도 같은 가치였습니다. 코드는 컴퓨터가 실행하기 위해 작성되지만, 인간이 읽기 위해서도 작성된다는 이야기가 많았지요. 그래서 개발자들은 들여쓰기 규칙을 놓고 탭과 스페이스 논쟁을 벌이기도 했답니다. 이러한 것들은 결국 “인간의 인지 부하”를 줄이기 위함이었지요.

그러나 LLM이 주도하는 AI기반 코딩의 시대가 도래하면서 예상치 못했던 상황들이 발생하고 있습니다. “우리가 주변 동료를 위해 넣어둔 그 많은 공백과 줄바꿈이 과연 AI에게도 유용한가?”라는 질문에 답을 해야하는 시점입니다. 제가 읽은 논문은 이 질문에 대해 충격적인 답을 내놓습니다. 우리가 코드 가독성을 높이기 위해 사용하는 포맷팅 요소들이, LLM의 관점에서는 아무런 의미 정보가 없는 “노이즈”일 뿐이고, 막대한 토큰 비용을 발생시키고, 추론 속도를 저하시키는 주범이라는 것입니다.

위 그림은 포맷팅된 자바 코드와 포맷팅되지 않은 자바 코드 조각을 비교한 것입니다. 같은 배경색으로 표시된 문자는 동일한 토큰을 나타냅니다. 포맷팅되지 않은 코드는 구문의 정확성을 유지하면서 들여쓰기, 공백 및 줄 바꿈을 제거하여 생성됩니다.

그럼 한번 내용을 상세하게 파헤쳐볼까요?


문제의 정의: 토큰 경제와 공백 문자

현대 개발은 IDE에서 코드를 작성할 때 자동 포맷터를 사용하여 코드를 예쁘게 정렬합니다. 함수 인자가 길어지면 줄을 바꾸고, 블록 사이에서는 빈 줄을 넣어 가독성을 확보합니다. 이런 시각적 구조화는 인간의 뇌가 코드를 패턴으로 인식하는데 필수적입니다.

그러나 LLM은 코드를 2차원 구조가 아닌 1차원 방식으로 인식합니다. LLM에게는 개행이나 공백은 토큰일 뿐입니다. 문제는 이것이 전체 코드의 상당 부분을 차지하고 있다는 점입니다.

LLM의 비용은 토큰 수에 비례합니다. 토큰 수가 늘어날수록 아래와 같은 현상이 발생합니다.

  1. 비용 증가: 불필요한 공백처리에도 비용을 지불해야 합니다.
  2. 지연 시간 증가: 모델이 처리하고 생성해야 할 토큰이 많아지기에 응답 속도가 느려집니다.
  3. 컨텍스트 윈도우 낭비: 제한된 컨텍스트에 더 많은 유효 코드를 담지 못하고 공백으로 채우게 되어, 코드 분석 시 성능 저하를 유발합니다.

이 비효율성의 원인은 BPE(Byte Pair Encoding)와 같은 Tokenizer의 작동 방식에 있습니다. Tokenizer는 자주 등장하는 문자열 패턴을 하나의 토큰으로 압축하려 시도합니다. 하지만 코드의 공백 패턴을 매우 다양하고 불규칙하기에 효율적인 압축이 어렵습니다.

일반적으로 int a = 1; 에 대한 토큰화는 [int], [ a], [ =], [ 1], [;] 이렇게 수행됩니다. 만약에 개행이 있으면 [\n], [\n] 으로 토큰화됩니다.

연구에 따르면, 소스 코드에서 포맷팅 요소를 제거하는 것만으로도 전체 토큰의 약 24.5%를 줄일 수 있다고 합니다. 이는 우리가 LLM에 지불하는 비용의 1/4이 단지 코드를 예쁘게 만들기 위한 포맷팅 처리에 쓰이고 있음을 시사합니다.


연구 분석

논문의 연구팀은 아래의 가설을 검증하기 위해 실증 연구를 수행했습니다. 연구의 핵심 가설은 세 가지 입니다.

  1. RQ1: 포맷팅 제거가 LLM의 성능과 효율성(토큰 감소)에 어떤 영향을 미치는가?
  2. RQ2: 어떤 포맷팅 요소(개행, 들여쓰기)가 가장 큰 영향을 미치는가?
  3. RQ3: LLM이 비정형 코드를 생성하도록 최적화 할 수 있는가?

연구팀은 공정한 평가를 위해 아래의 실험 환경을 구축했습니다.

  • 대상 언어: Java, Python, C++, C#
  • 실험 상용 모델: GPT-4o, Gemini-1.5-pro, Claude-3.5-Sonnet
  • 실험 오픈 모델: DeepSeek-Coder-V2, StarCoder2, CodeLiama
  • 평가 방식: 코드의 중간 부분을 비워두고 LLM이 이를 채우게 하여, 문맥 이해도와 생성 능력을 평가
  • 데이터셋: 각 언어별 대규모 리포지토리 데이터

실험은 원본 코드와 구문적 정확성은 유지하되 모든 시각적 포맷팅을 제거한 코드를 각각 모델에 입력하여 비교하는 방식으로 진행되었습니다.


RQ1: 성능 저하 없는 효율성 증대

실험 결과는 시각적 포맷팅을 제거한 코드를 사용했을 때, LLM의 코드 생성 성능은 떨어지지 않거나, 일부 케이스에서는 향상되었습니다.

  • 토큰 감소 효과: 4개 언어 평균 24.5%의 입력 토큰 감소가 확인되었습니다. 이는 별도의 알고리즘적 압축 없이, 단순히 텍스트 전처리만으로 얻을 수 있는 수치입니다.
  • 성능 유지: GPT-4o나 Gemini-1.5와 같은 모델들은 포맷팅이 없는 코드(한줄로 이어진 코드)를 입력받아도, 그 의미를 완벽하게 파악하고 올바른 코드를 생성했습니다.

위 결과는 LLM에게 코드는 텍스트라기보다 논리적 심볼의 연속이라는 가설을 뒷받침해줍니다. 인간에게는 가독성이 인지적 윤활유 역할을 했지만, LLM에게는 방해물이 될 수 있다는 것입니다.


RQ2: 토큰 낭비의 주범은 개행

연구팀은 어떤 포맷팅 요소가 가장 많은 토큰을 낭비하는지 요소별 제거 실험을 수행했습니다.

  • 개행(Newlines): 토큰 증가의 가장 큰 원인입니다. 특히 함수 선언부, 긴 인자 리스트, 블록 구분을 위한 빈 줄 등이 누적되어 막대한 토큰을 소모합니다.
  • 들여쓰기(Indentation): 토큰 증가 영향도는 높음입니다. 중첩된 루프나 조건문이 많은 코드에서 급격히 증가합니다. Python과 같이 들여쓰기가 강제되는 언어에서는 제거가 제한적일 수 있습니다.
  • 연산자 공백: 토큰 증가 영향도는 낮습니다. a = b + c를 a=b+c로 줄이는 것은 토큰 수에 큰 영향을 주지 않았습니다. 대부분의 Tokenizer가 이를 효율적으로 처리하기 때문입니다.

위의 결과를 보면 개행 문자 제거가 가장 드라마틱한 효과를 보였습니다. 예를 들어 C++ 코드에서 개행을 모두 제거했을 때, Claude 모델에서는 입력 토큰이 약 18.7% 감소했습니다. 이는 코드 스타일 가이드가 권장하는 한 줄에 하나의 명령문 규칙이 LLM 시대에는 비용 효율성을 저해하는 요인이 됨을 시사합니다.


RQ3: 입력뿐만 아니라 출력도 줄일 수 있는가?

입력 토큰을 줄이는 것은 이미 작성된 코드를 전처리하면 되기에 비교적 쉽습니다. 연구팀은 LLM이 생성하는 코드도 포맷팅을 제거하여 비용을 아낄 수 있는지에 대해 두 가지 테스트를 했습니다.


테스트 1: 프롬프트 엔지니어링

프롬프트에 “불필요한 공백이나 줄바꿈을 넣지 말고, 한 줄로 코드를 작성해줘”라고 지시하는 방식입니다. 이는 모델별 편차가 컸고 GPT-4o가 지시를 잘 따르며 토큰을 줄였다고 합니다. Gemini-1.5의 경우, C++ 코드 생성 시 포맷팅을 제거하라는 지시를 과도하게 해석하여 문법적으로 잘못된 코드를 생성했습니다. 이는 프롬프트만으로는 복잡한 문법 규칙을 유지하면서 포맷팅만 제거하는 미묘한 제어를 하기 어렵다는 것을 보여줍니다.


테스트 2: 파인 튜닝

적은양의 비정형 코드 데이터셋으로 모델을 추가 학습 시키는 방식입니다. 결과는 성공적이었고, 단 50개의 비정형 코드 샘플만으로 파인 튜닝을 해도, Gemini-1.5와 GPT-4o 모두 성능 저하없이 출력 토큰을 각각 35.9%, 24.8%를 줄였습니다. 이는 LLM이 코드의 “형태”가 아닌 “의미”를 학습할 수 있는 유연성을 가졌음을 의미합니다. 자체 코딩 모델을 구축할 때, 학습 데이터에서 포맷팅을 제거하는 전처리를 수행하면 추론 속도와 비용면에서 훨씬 유리한 모델을 만들 수 있다는 결론에 도달 합니다.


양방향 코드 변환 도구

본 논문의 결과를 현장에 적용하기 위해서 연구팀은 양방향 코드 변환 도구를 개발하여 공개했습니다. 이 도구는 가독성과 효율성이라는 상충하는 가치를 조화시키는 가교 역할을 합니다.

본 도구는 사람이 읽기 쉽고 형식이 잘 갖춰진 코드와 LLM이 사용하기 편리한 간결한 코드 간의 양방향 변환을 지원합니다.

위 그림에서 볼 수 있듯이, 도구를 사용하면 이중 변환 추론 워크플로우를 구축할 수 있습니다. 이를 통해 LLM은 효율적이고 간결한 코드의 이점을 누리는 동시에 개발자는 익숙한 포맷팅의 코드를 사용할 수 있습니다. 입력 코드에서 서식 요소를 제거하여 LLM이 이해하는데 필요한 토큰 사용량을 줄입니다. 출력에서는 LLM이 생성한 코드의 서식을 복원하여 사람이 읽기 쉽도록 합니다.

연구팀은 MCEval(Massively Multilingual Code Evaluation, 대규모 다국어 코드 평가) 데이터셋을 활용해 도구의 안정성을 검증했습니다.

  • 무결성 검증: 변환 전후 코드의 AST(Abstract Syntax Tree)가 동일함을 100% 검증했습니다. 즉, 로직이 변질될 위험이 없습니다.
  • 처리 속도: 평균 76ms의 지연 시간을 기록했습니다. LLM의 네트워크 왕복 시간이나 추론 시간에 비하면 무시할 수 있는 수준입니다.

시사점

이 연구 결과는 LLM처리에서 코드 가독성의 숨겨진 비용을 밝히고, “인간에게 좋은 것이 반드시 AI에게도 좋은 것은 아니다.”라는 시사점을 줍니다.

  1. 가독성의 비용 인식: 코드의 공백과 줄바꿈은 LLM 예산의 약 1/4을 낭비하고 있습니다. 이를 인지하고 관리해야 합니다.
  2. 안전한 제거: 최신 LLM은 포맷팅이 없어도 코드의 로직을 완벽하게 이해합니다. 두려움 없이 압축해도 됩니다.
  3. 도구의 도입: 양방향 변환 도구를 개발 파이프라인에 통합하는 것을 고려해야 합니다.

우리는 오랫동안 코드를 “인간이 읽기 위한 문학”처럼 다루어 왔습니다. 하지만 AI와 협업하는 시대에 코드는 “AI가 처리할 데이터”의 성격도 동시에 가지게 됩니다. 이제 개발자들은 두 가지 모드를 유연하게 오가야 합니다. 코드를 작성하고 리뷰할 때는 최대한 가독성을 높여야 하지만, 이를 AI에게 넘길 때는 과감하게 군더더기를 덜어내야 합니다.


참고:

12/24/2025

WeKnora v0.2.0 런칭

얼마전 Tencent에서 WeKnora v0.2.0을 런칭했습니다. 그런데 최근의 움직임과 약간 다른 느낌이 들었습니다.

최근 구글의 Gemini나 OpenAI의 모델들이 100만 토큰 이상의 방대한 컨텍스트를 한 번에 처리하기 시작하면서, 이제 RAG(Retrieval-Augmented Generation)의 시대는 끝났다라고 흔히들 얘기하는 시점이니까요. 책 수백 권 분량을 한 번에 AI에게 던질 수 있는데, 왜 굳이 복잡하게 RAG를 거쳐야 하느냐는 논리입니다.

한편으로는 이렇게 생각해볼 수 있습니다. 아무리 큰 바구니(컨텍스트)가 있어도, 그 안에 수많은 데이터를 다 담을 수는 없으며, 매번 수백만 줄의 텍스트를 읽게 하는 것은 비용과 시간을 낭비할 수 있다고 볼 수 있습니다. 이런 배경으로 인해 Tencent가 공개한 WeKnora는 Agentic RAG를 제시한 것이 아닌가 싶네요.

WeKnora를 이해하기 전에 왜 현 시점에서 RAG가 필수적인지 짚고 넘어갈 필요성이 있습니다.

  • 비용 효율성: 100만 토큰을 매번 사용하면서 질문하는 것은 꽤 많은 통행료를 내는 것과 같습니다. RAG는 전체 데이터 중 필요한 것만 찾아 모델에게 전달하기에 비용을 절감할 수 있습니다.
  • 답변 속도: 거대 모델이 방대한 데이터를 읽고 답하는 데는 꽤 오랜 시간이 걸릴 수 있습니다. 그러나 고성능 RAG 엔진은 빠르게 답변을 생성합니다.
  • 환각 증상 방지: 모델이 아무리 똑똑해도 기억에 의존하면 거짓말을 할 수 있습니다. 명확한 근거를 주면 환각 증상을 예방할 수 있습니다.

위 관점에서 WeKnora를 보면, 단순히 문서를 데이터베이스에 저장하는 것을 넘어, AI가 그 문서를 이해하고, 필요한 정보를 찾기 위해 추론하며, 외부 도구를 사용해 검증하는 전 과정을 자동화합니다. 이미 Tencent 내부에서 Dog fooding으로 검증하지 않았을까? 라는 생각이 듭니다.

최근 업데이트된 v0.2.0은 단순한 검색 도구에서 자율형 AI 비서로 격상시켰습니다. 그 이유는 아래와 같습니다.

1) ReACT 에이전트 모드

기존 RAG는 질문을 받으면 검색하고 끝이었습니다. WeKnora의 에이전트 모드는 ReACT(Reason + Act) 알고리즘을 사용합니다.

  • 추론(Reason): 사용자가 우리 회사 작년 매출과 올해 전망을 질문했네? 그럼 작년 결산내역과 올해 사업 계획서 두 개를 찾아야겠다.
  • 행동(Act): 실제로 두 문서를 검색하고, 필요하다면 외부 검색을 통해 경쟁사의 동향까지 파악
  • 결과: 단순 요약이 아니라, 여러 출처의 데이터를 종합한 인사이트를 제공

2) MCP(Model Context Protocol) 지원

WeKnora는 앤트로픽이 주도하는 MCP 규격을 채택했습니다. 이는 WeKnora가 구글 드라이브, 슬랙, 깃허브 등 다양한 외부 서비스 및 앱과 연결될 수 있음을 의미합니다. 지식이 문서내에서만 머물지 않고, 여러 서비스 및 도구를 통해 추출됩니다.

3) GraphRAG

단순 키워드 검색은 관련 단어가 없으면 답을 못합니다. WeKnora는 지식 그래프(Knowledge Graph) 기술을 도입해 단어와 단어 사이의 관계를 파악합니다. “A 프로젝트 담당자가 누구야?” 라는 질문에 “그 담당자가 작년에 쓴 B 문서에 따르면…” 식으로 연관도니 모든 정보를 캐낼 수 있습니다.

WeKnora의 새로운 기능은 아래와 같습니다.

WeKnora는 모듈 방식을 채택하여, 문서에 대한 이해와 검색 파이프라인 구축을 지원합니다.

ReACT 에이전트 모드

  • 내장 도구를 사용하여 지식 기반을 검색할 수 있는 새로운 에이전트 모드
  • MCP 도구 및 웹 검색을 호출하여 외부 서비스에 엑세스
  • 종합적인 요약 보고서를 위한 여러번의 반복 및 숙고
  • 교차 지식 기반 검색 지원

다중 유형 지식 기반

  • FAQ 및 문서 지식 기반 유형 지원
  • 폴더 가져오기, URL 가져오기, 태그 관리
  • 온라인 지식 입력 가능
  • FAQ 항목 일괄 가져오기 및 삭제

MCP 도구 통합

  • MCP 프로토콜을 통해 에이전트 기능을 확장
  • 내장형 uvx 및 npx MCP 런처
  • Stdio, HTTP Streamable, SSE 전송 지원

웹 검색 통합

  • 확장 가능한 웹 검색 엔진
  • DuckDuckGo 내장 검색 기능

대화 전략 설정

  • 에이전트 모델과 일반 모드 모델을 별도로 구성
  • 구성 가능한 검색 임계값
  • 온라인 프롬프트 구성
  • 다중 턴 대화 동작에 대한 정밀한 제어

새롭게 디자인된 UI

  • 대화 인터페이스에서 상담원 모드/일반 모드 전환 기능
  • 툴 호출 실행 프로세스 표시
  • 시간 순서대로 그룹화된 세션 목록
  • 지식 기반 페이지의 탐색 경로

인프라 업그레이드

  • MQ 기반 비동기 작업 관리
  • 버전 업그레이드 시 데이터베이스 자동 마이그레이션
  • 빠른 개발 모드 지원

AI 모델 자체가 똑똑해지는 것보다 더 중요한 것은 “모델이 데이터를 얼마나 정확하게 알고 있는가?” 입니다. WeKnora는 Long Context LLM이 줄 수 없는 경제성, 정확성 그리고 확장성을 제공합니다.

에이전틱 RAG가 궁금하면 한번 경험해보세요.

WeKnora 기술 스택

  • Backend: Go
  • Frontend: Vue.js (중국이다보니…)
  • 백터 데이터베이스: PostgreSQL(pgvector), Elasticsearch
  • LLM 지원: Qwen, DeepSeek, Ollama 등
  • 지식 그래프: Neo4j (선택 사항)

설치 참고: https://github.com/Tencent/WeKnora


12/22/2025

DevOps의 한계와 대안 탐색

약 15년전 등장한 DevOps는 철학이 매우 좋았습니다. 자동화, 지속적 통합(CI), 지속적 배포(CD)는 마치 모든 것을 해결해 줄 것처럼 여겨졌습니다. 하지만, 요즘은 DevOps는 실패했다. 혹은 DevOps는 허구다. 라는 냉소적인 목소리가 나오고 있습니다. 무엇이 잘못되었을까요?

DevOps의 본질은 “문화”와 “협업”이었지 “직무”가 아니었습니다. DevOps는 개발자에게 “코딩부터 배포, 모니터링, 운영”까지 직접하라고 요구합니다. 그러나 이는 인간의 인지 능력을 너무 높게 평가한 것 같습니다. 이유는 Full-stack을 넘어 Full-lifecycle을 요구받는 형태이고 이는 결국 개발 생산성 저하와 번아웃으로 이어질 수 있습니다.

비즈니스의 목적은 “가치 전달”이지 “파이프라인 구축”이 아닙니다. 실용적인 플랫폼을 지향해야 함에도, 필요 이상으로 복잡한 시스템을 구축하며 이를 “DevOps”의 성과라고 착각할 수 있습니다. 고객에게 필요한 기능을 하나 더 만드는 것보다, K8S 클러스터를 얼마나 더 세련되게 구축하느냐에 집중되는 우려가 있을 수 있습니다.

그렇다고 DevOps는 나쁜 개념은 아닙니다. 모든 상황에 적합하지 않을 뿐입니다. 현대적인 DevOps 도구를 적용하기 힘든 오래된 시스템에 억지로 DevOps를 도입하려다가 문제가 발생할 수 있습니다. 그리고 아주 작은 스타트업이나 제품일 경우에는 복잡한 CI/CD 환경을 구축하는 것보다 단순한 배포가 비용 대비 훨씬 효율적일 수 도 있습니다.

위에서 언급한 한계를 극복하기 위해 요즘은 “플랫폼 엔지니어링”이 언급되고 있습니다. 쉽게 말해서 개발자가 인프라 걱정 없이 코드에만 집중할 수 있도록 편의 시설이 다 갖춰진 맞춤형 작업 공간을 만들어주는 일이라고 이해하면 됩니다.

현 Cloud 서비스는 강력함과 복잡함을 지니고 있습니다. 또한 범용 도구라 회사 보안 규정이나 배포 방식을 모릅니다. IDP는 회사 내부 정책을 미리 심어둡니다. 또한 Cloud는 실수를 하여 자원을 삭제할 가능성이 있지만, 잘 설계된 IDP는 안전한 범위내에서 활동하도록 제공됩니다.

DevOps와의 차이점은 아래와 같습니다.

1. 플랫폼을 “제품(Product)”로 인지

플랫폼 엔지니어는 단순히 도구를 설치하는 사람이 아닙니다. 내부 개발자를 “고객”으로 생각하고, 그들이 겪는 불편함을 해결해주는 제품을 만듭니다. 이를 위해 개발자들의 피드백을 받고 지속적으로 개선하지요.

2. 셀프 서비스 기반

개발자가 서버 리소스가 필요할때마다 요청을 보내고 기다릴 필요가 없습니다. 플랫폼에 접속해서 직접 생성하면 됩니다.

3. Golden Path 제공

모든것을 자유롭게 하세요. 라는 것은 막막할 수 있습니다. 플랫폼 엔지니어링은 현 조직에서 가장 안전하고 효율적이라고 검증된 표준경로를 제공합니다. 개발자는 이 길만 따라가면 보안, 성능 걱정없이 배포할 수 있습니다.

플랫폼 엔지니어링을 보면 Cloud와 같은 것 아냐? 라고 생각할 수 있습니다. 차이가 좀 있는데, Cloud는 원재료를 파는 거대한 마트라면, 내부 개발자 플랫폼(IDP)는 그 재료들을 모아 우리 회사 입맛에 맞게 만든 밀키트라고 보시면 됩니다. 그래서 손이 덜 가는 것이겠죠.

결론적으로 DevOps는 사라지지 않았습니다. 다만, 우리가 가졌던 “환상”은 어느정도 사라져야 합니다. 현재 시점은 개발자에게 모든 부담을 주는 대신, 개발자가 편하게 배포할 수 있는 플랫폼 엔지니어링으로 나아가고 있습니다. 중요한 것은 “어떤 도구를 쓰는가?” 가 아니라 “우리 조직이 고객에게 가치를 전달하는데 무엇이 병목인가?”를 객관적으로 직시하는 실용주의 태도라고 생각합니다.

즉, 개발자가 모든 것을 알아야 한다는 상황에서 개발자가 가치를 만드는데 방해되는 병목을 제거한다로 진화하고 있다고 생각합니다.



12/07/2025

DX가 먼저인가? AX가 먼저인가?


AI의 시대에 살고 있습니다. 그래서 요즘 “AI 우선”이라는 말이 유행처럼 번지고 있습니다. 일각에서는 “DX의 시대는 끝났다”고 얘기하기도 합니다. 그러나 현실은 복잡하고 이는 위험한 오해라고 생각합니다. 기존 시스템을 보유한 기업일 경우, 지속 가능한 가치를 창출하기 위해서는 DX가 AX보다 선행되어야 합니다. 반대로 이미 디지털 네이티브 기업이라면 AI가 선도할 수 있습니다. 왜 이 순서가 중요한지 적어보도록 할께요.

왜 디지털 전환이 선행되어야 할까?

2023년 생성형 AI의 폭발적 성장 이후, 2025년 말인 지금까지 화두는 단연 “AI” 였지요. 그래서 이 과정에서 위험한 담론이 형성되지 않았나 생각됩니다. DX가 정말 낡은 개념일까요? 그럴 수 있다고 봅니다. 경영진들은 클라우드 마이그레이션이나 데이터 표준화 같은 지루한 과제보다, 당장 눈에 보이는 챗봇과 자동화툴을 원할 수 있지요.

우선, DX와 AX의 관계를 명확히 정의해야 한다고 생각합니다. 이 글을 읽고 계신 분들은 이 두개념이 대체 관계로 보이나요? 저는 상호 보완적인 관계라고 생각합니다.

DX는 아날로그 정보를 디지털 데이터로 변환하고, 파편화된 시스템을 클라우드로 연결하는 과정입니다. 이는 “신경망”을 까는 작업이고, 인간이 하는 일을 더 빠르게 처리하고, 데이터의 흐름을 투명하게 만드는 것이 목표입니다. 즉, DX는 “바닥”을 다지는 작업이라고 생각합니다.

AX는 DX가 만들어낸 데이터 위에서 작동합니다. DX가 “과거와 현재의 데이터를 보여주는 것”이라면, AX는 “그 데이터를 기반으로 미래를 예측하고 스스로 판단하는 것”이지요. 이는 “천장”을 뚫고 나가는 혁신이라고 생각합니다.

혹시, “쓰레기를 넣으면 쓰레기가 나온다.” 라는 말 들어보셨을까요? AI의 연료는 데이터인데, 지금 기업의 대부분 데이터는 엑셀 파일, 종이 문서, 혹은 서로 호환되지 않는 ERP에 갇혀 있지요. 이런 이유에서라도 DX가 선행되어야 합니다. DX를 통해 데이터가 정제 되고 표준화되어 Data Lake에 모이지 않는다면, 아무리 뛰어난 AI 모델을 도입해도 학습할 데이터가 있을까요? 구형 프로세스에 AI를 얹었다고 해서 비효율이 효율적으로 자동화 될까요?

데이터를 한곳에 모아서 정제하려면 가장 먼저 해야 하는게 부서간의 장벽을 허무는 것이지요. 영업팀의 데이터와 마케팅팀의 데이터가 따로 놀지 않고, 한곳에 모이고 정제 되어야… 즉, DX가 선행되어야 AI 데이터 전체를 꿰뚫는 통찰을 제공할 수 있겠죠.

왜 실패할까?

여기저기서 얘기하는 것을 보면, AX 도입에 실패한 곳이 많다고 하던데., 왜 실패할까요? “기술의 함정”에 있지 않나 생각됩니다. “2025년 과학기술산업화 포럼”에서 발표한 내용과 비슷하지만, DX를 단순히 슬랙을 사용하고, 줌을 이용하고, 챗GPT를 구독하는 것으로 착각할 수 있습니다. 근데 명확히 이것은 “디지털화”이지 “DX”는 아닙니다. 일하는 방식과 문화 그리고 데이터가 정제되지 않은 채 도구만 바꾸는 것은 마차에다가 비행기 엔진을 다는 격입니다. 마차는 결국 부서지겠지요.

AI 도입은 필연적으로 업무의 변화를 가져다줍니다. 그러나 “디지털 기술로 일하는 문화”가 정착되지 않은 곳에서는 저항감을 느낄 수 있습니다. 데이터를 입력하고 활용하는데 익숙치 않다면 고도화된 AI 도구는 방치될 가능성이 높지요.

그럼 어떻게 해야 할까?

우선, 자기 객관화를 해야겠죠? 첫째, 본인이 속한 곳의 데이터 인프라를 재점검해야 합니다. 예를 들어 이런것들입니다.

  • 우리의 데이터는 AI가 읽을 수 있는 형태(Machine-readable)인가?
  • 데이터가 실시간으로 통합되고 있나?

위 질문에 “Yes”라고 답할 수 없다면, AX는 멈추고 DX를 가동해야 합니다.

둘째, 프로세스를 표준화해야 합니다.

  • 아날로그 프로세스를 그대로 두었나?
  • 업무 프로세스를 디지털 환경에 맞게 간소화하고 AI가 이해할 수 있도록 표준화하는 BPR(Business Process Reengineering)이 선행되어야 합니다.

셋째, 이제 전환해야죠.

  • 단단해진 DX 기반 위에 AX를 도입합니다.
  • 중요한 것은, 단순 반복 업무를 대체하는 것을 넘어, 수집한 데이터를 분석하여 새로운 비즈니스 인사이트를 창출하는 파트너가 되어야 합니다.

결론

지인이 링크드인에 올린 글을 보고 이 글을 쓰게 되었습니다.

준비가 안되어 있다면, “기본으로 돌아가야 합니다.”

AX는 매력적입니다. 그런데 DX라는 뿌리 없이 피어난 AX는 금방 시들 수 있어요. 지금 필요한 것은 유행을 쫒는 조급함보다는 디지털화 되어 있는지 되돌아보는 냉철함일 수 있습니다. DX는 구시대의 유물이 아닙니다. 앞으로 다가올 AI 시대를 열어줄 가장 강력한 버팀목이라고 생각합니다. DX가 완성되는 그 지점이, AX가 시작되는 출발선이겠죠.

참고:

12/03/2025

Mistral 3

오늘 Mistral에서 4가지 새로운 모델을 출시했습니다. "Ministral" 소형 모델 시리즈(14B, 8B, 3B) 3가지와 매개변수 675B, 유효 매개변수 41B를 갖춘 Mistral Large 3 모델입니다.

위에서 언급한 모든 모델은 Vision이 가능하고, 라이센스는 Apache 2.0 입니다.

특히 3B 모델은 약 3GB 정도의 작은 파일에 담긴 Vision 기능을 갖추고 있습니다. (이거에 기대가 커요)

https://huggingface.co/spaces/mistralai/Ministral_3B_WebGPU 에서 브라우저로 테스트 해볼 수 있습니다. WebGPU를 통해 실행할 수 있을 정도입니다.


위 데모는 3GB 모델을 가져온 후, 웹캠 영상을 스트리밍하여 모델이 보고 있는 영상에 대해 텍스트 프롬프트를 실행할 수 있습니다.

꽤 괜찮네요 :)





12/02/2025

실리콘밸리가 말하는 엔지니어링 매니지먼트의 종말과 진실

2025년 현재, 불과 몇 년 전까지만 해도 개발자를 모셔가기 위해 사이닝 보너스와 최고의 복지를 내세우던 “채용 전쟁”은 옛 이야기가 되었습니다. 많은 이들이 “경기가 안 좋아서”라고 막연하게 말합니다. 하지만 우연히 읽게된 글에서 본 실리콘밸리의 생각은 다릅니다. 그들은 이것이 단순한 불황이 아니라, 지난 10년간 우리가 믿어왔던 “경영의 표준”이 완전히 바뀌는 패러다임의 전환이라고 말합니다.

우버(Uber)와 스트라이프(Stripe)를 거쳐 현재 Imprint의 CTO로 있는 윌 라슨(Will Larson)은 “우리가 알던 좋은 엔지니어링 매니지먼트”는 사실 일시적인 유행이었다고 언급합니다.

도대체 “좋은 관리”가 유행이었다니 무슨 뜻일까요? 사람을 존중하고 성장시키는 것이 잘못되었다는 것일까요? 이 글은 불편한 진실을 파헤치고, 거품이 꺼진 시대에 IT 조직이 나아가야 할 길을 고민해봅니다.


왜 “착한 관리자”에 열광했나?

2010년 부터 2021년까지의 시기는 “제로 금리”의 시기 입니다. 시장에 돈이 넘쳐났고, 투자자들은 당장의 이익보다 미래의 성장에 베팅했습니다. 기업의 가치는 “얼마나 돈을 버느냐”가 아니라 “얼마나 많은 사용자와 개발자를 보유했느냐”로 평가받았습니다. 이 시기에 가장 희소하고 비싼 자원은 바로 소프트웨어 개발자였습니다.

개발자 한 명을 채용하는데 드는 비용과 시간은 매우 비쌌습니다. 따라서 기업 입장에서 최우선 과제는 “채용”과 “유지” 였습니다. 이런 상황에서 매니지먼트의 역할이 재정의되었습니다. 과거에는 기술적 판단을 내리고 업무를 지시했다면, 팀원이 떠나지 않게 멘탈을 케어하고, 갈등을 중재하며, 커리어 성장을 돕는 리더로 변화되었습니다.

이 시기 실리콘밸리에서는 “매니저는 코드를 짜지 말라”는 조언이 정설처럼 받아들여졌습니다. 매니저가 코드를 짜면 팀원들의 성장을 방해한다는 논리였습니다. 대신 매니저는 one on one, 팀 빌딩, 채용 인터뷰, 문화 조성 등 “비기술적 업무”에 몰두했습니다.

우리는 이것을 “선진적인 실리콘밸리 문화”라고 받아들였습니다. 그러나 윌 라슨은 “그것은 인간적인 경영이어서가 아니라, 돈이 너무 많아서 비효율을 감당할 수 있었던 시기의 사치스러운 최적화였다.” 고 냉정하게 말합니다.


효율성의 역습과 관리자의 위기

2022년 인플레이션을 잡기 위해 금리가 오르며 “공짜 돈”의 시대는 막을 내렸습니다. 자본 조달 비용이 비싸지자 투자자들의 질문이 변경되었습니다. “다음에 얼마나 성장해?”, “지금 얼마나 벌고 있어?” 이런 상황의 변화는 기업 내부의 “비효율”을 정조준했습니다.

빅테크 기업들의 대규모 해고가 시작되면서 개발자 공급 부족 현상이 완화되었습니다. 회사는 더 이상 개발자의 기분을 맞추기 위해 과도한 비용을 지출할 필요가 없어졌습니다. “무조건적인 유지”가 내려오자, “사람만 관리하는 매니저”의 입지가 흔들리기 시작했습니다.

메타는 “매니저를 관리하는 매니저는 필요 없다.”고 선포하고 관리자 층을 대폭 없앴습니다. 보고 라인이 길어질수록 의사결정은 느려지고, 정보는 왜곡됩니다. 무엇보다 “직접 제품을 만들지 않는 계층”이 너무 비대해졌다는 판단이었습니다.

윌 라슨은 이 현상을 보며 “순수한 피플 매니지먼트의 시대는 끝났다.”고 선언합니다. 기술을 모르고, 제품에 직접 기여하지 않으면서, 프로세스와 사람만 관리하는 역할은 이제 회사에 짐이 될 뿐입니다.


좋은 매니지먼트는 왜 유행 취급을 받는가?

오해하지 말아야 할 것이 있습니다. 윌 라슨의 주장은 “직원을 막 대해도 된다”거나 “복지가 필요 없다”는 뜻이 아닙니다. 핵심은 “비즈니스 임팩트와의 괴리”입니다.

지난 10년간 매니지먼트는 지나치게 추상화되었습니다. 많은 리더들이 다음과 같은 업무를 자신의 주업무로 여겼습니다.

  • 심리적 안정감 조성
  • 팀원 간의 관계 조율
  • 복잡한 채용 프로세스 설계
  • 추상적인 커리어 코칭

위에 언급한 것은 중요합니다. 그러나 회사가 위기일 때, 이런 업무들은 “매출에 얼마나 기여했어?”라는 질문에 답하지 못합니다. 성과와 무관한 “좋은 분위기 조성”이기 때문입니다.

많은 리더들이 “피플 매니지먼트”를 핑계로 기술 학습을 멈췄습니다. “나는 리더니까 코드는 몰라도 돼. 팀원들이 전문가니까” 이런 태도는 저금리 시대에는 “위임”이라는 미덕으로 포장되었지만, 지금은 “직무 유기”로 간주됩니다. 기술적인 난제를 이해하지 못하는 리더는 올바른 의사결정을 내릴 수 없고, 결국 팀의 속도를 늦추는 병목이 됩니다.


다시 “테크니컬 리더”의 시대로

2024년 이후, 살아남는 리더와 조직은 어떤 모습일까요? 미래의 모델은 과거의 모델과 닮아 있습니다.

이제 리더도 다시 엔지니어 역량이 있어야 합니다. 팀원들의 코드를 읽고 이해할 수 있어야 합니다. 시스템의 구조적인 문제를 파악하고 기술적 부채를 관리하며 아키텍처 설계가 가능해야 합니다. 또한 필요하다면 직접 문제를 해결할 수 있는 “선수 겸 코치”가 되어야 합니다. Airbnb의 CEO인 브라이언 체스키도 “리더들이 다시 실무로 돌아와야 한다”고 강조했습니다.

우리 팀원들이 얼마나 열심히 했는가, 얼마나 문화를 잘 지켰는가는 이제 2순위입니다. 1순위는 우리가 만든 제품이 비즈니스 문제를 해결했는가입니다. 팀원의 성장은 리더가 떠먹여 주는 것이 아니라, 비즈니스의 어려운 문제를 해결하는 과정에서 스스로 쟁취하는 것이라는 인식이 다시 자리 잡고 있습니다.

팀장 위에 A, A위에 B라는 옥상옥 구조는 사라지고 있습니다. 리더 한 명이 관리하는 인원은 늘어나되, 조직의 깊이는 얕아지고 있습니다. 이는 정보 전달의 왜곡을 줄이고, 실무자와 의사결정자 사이의 거리를 좁히기 위함입니다.


결론

이 거대한 흐름은 태평양 건너 미국만의 이야기가 아닙니다. 한국도 이미 “효율화” 모드에 돌입했습니다. 우리는 어떻게 대비해야 할까요?

경영진 분들은 가짜 일을 걷어내야 합니다. 무조건적인 실리콘밸리식 수평 문화나 복지 중심의 관리를 맹목적으로 좇던 시기는 지났습니다. 회사의 관리자들이 실무와 연계되어 있는지 점검하고 팀 케어보다 기술적 리더십과 비즈니스 기여를 요구해야 합니다. 또한 조직을 얕게 만들어 리더들이 현장 목소리를 직접 듣게 해야 합니다.

리더들은 기술적 권위를 회복해야 합니다. 현실을 직시하고 “나는 사람 관리가 전문이야”라는 말을 하지 말아야 합니다. 다시 기술을 봐야 하고, 제품의 디테일을 집요하게 파고들어야 합니다. 그거 아세요? 팀원을 보호하는 가장 좋은 방법은 “따뜻한 위로”가 아니라 “우리 팀이 회사에 없어서는 안 될 존재임을 성과로 증명하여 그들의 월급을 지켜주는 것”입니다.

엔지니어분들은 비즈니스를 이해해야 합니다. 좋은 리더란 “나를 편하게 해주는 사람”이 아니라, “명확한 방향을 제시하고 장애물을 치워주는 사람”입니다. 리더에게 정서적 케어를 요구하기 보다는 “비즈니스의 우선순위”를 명확히 요구하세요. 그리고 기술적 우아함보다 비즈니스 가치를 먼저 생각하세요. 스스로의 가치를 “코드 퀄리티”가 아닌 “문제 해결 능력”으로 증명해야 합니다.

“좋은 엔지니어링 매니지먼트”가 유행했다는 말은 “거품 낀 관리”가 유행이었다는 의미입니다. 진정한 의미의 “좋은 관리”는 사라지지 않습니다. 다만, 그 정의가 “사람 좋은 리더”에서 “유능한 리더”로 무게중심이 이동했을 뿐입니다.

지금 당신의 조직은, 그리고 당신은 이 변화를 받아들일 준비가 되었나요?


참고