<aside> 💡

인공지능과 LLM 기술의 급격한 발전, 이외 겪었던 기술에 대한 개인적이고 짧은 회고록입니다.

</aside>

LLM 돌풍

2024년을 돌아보면, LLM과 AI 기술이 어디까지 확장될 수 있을지 체감하게 된 해였습니다. 연초부터 중반까지는 플래티넘 모델 위주의 성능 경쟁이 치열했는데, 곧이어 mini 모델들이 출시되면서 가성비 경쟁도 본격적으로 가열되었죠. 빅테크들은 각종 컨퍼런스를 통해 새로운 비전을 내놓았고, 저 역시 매번 흥미진진하면서도 “우리는 얼마나 빠르게 대응해야 할까” 하는 압박감을 동시에 느꼈습니다. 특히 올해 후반부터 Agentic AI가 급부상하고 있는 흐름이 인상적이었는데, 내년에는 이 분야에서 사용자들이 체감할 만한 구체적 결과가 많이 나오기를 기대하고 있습니다.

개인적으로나 조직적으로나 “LLM이 과연 비전문가 고객에게도 실질적인 가치를 전달할 수 있을까?”라는 문제에 관심을 많이 기울였는데, 이를 위한 사용자 접점을 찾는 일이 꽤나 도전적입니다. 고성능 모델이 아무리 멋진 답변을 내놓더라도, 사용자 입장에선 그 과정을 직관적으로 이해하기 어렵거나, 실제 필요와 동떨어진 결과물을 준다면 가치를 느끼기 힘들기 때문이지요. 그래서 올해는 “정말 필요한 상황에서 쓸 수 있는 AI”를 만드는 데 집중하고 싶었고, 이 부분이 내년에도 가장 큰 과제가 될 것 같습니다.

개인적인 기술 회고

Protobuf를 활용한 시스템 설계는 올해 경험 중 가장 인상 깊었습니다. REST에 비해 명시적인 스키마로 직렬화·역직렬화를 처리하니, 데이터 전달 과정에서 생기는 예외 상황이 크게 줄어들었습니다. 게다가 웹소켓 등을 사용할 때마다 직접 정의해야 했던 규격을 Protobuf가 대신 깔끔하게 처리해주니, 팀 전체가 빠른 통합을 진행할 수 있었습니다. 마이크로서비스 구조가 점점 복잡해지는 요즘, 통신 효율과 개발 생산성 모두 잡아낸 좋은 선택이었다고 생각합니다.

Langfuse 도입으로 프롬프트 디버깅도 한층 편리해졌습니다. 모델 응답이 의도와 어긋날 때마다 어디서 맥락이 어긋났는지 추적하기가 쉽지 않았는데, Langfuse는 입력·출력을 시각화해 “이 지점에서부터 틀어졌다”를 바로 보여줬죠. 덕분에 팀원들과 함께 시나리오를 공유하고, 프롬프트를 조금씩 변경해가며 최적의 구성을 찾는 데 큰 도움이 되었습니다.

사실 올해의 핵심은 “좋은 동료와 함께 일한다는 것”이었습니다. 빠듯한 일정 속에서도 서로 아낌없이 도와주고, 부족한 부분을 적극적으로 보완해주시는 분들 덕분에 제 실수를 숨기기보다 공유하고, 또 배우면서 빠르게 성장할 수 있었습니다. 내년에도 이런 협업 문화를 유지하면서, Agentic AI 시대에도 “정말 도움 되는 서비스”를 만들어나가고 싶습니다. 지금 진행 중인 실험들이 내년에 좋은 결과로 이어져, 비전문가 고객들에게도 AI가 한층 실감 나는 가치를 전할 수 있기를 기대합니다.

링크

Sin-Woo Bang Blog

Sin-Woo Bang