빠르게 발전하는 AI 시대 속에서, 프론트엔드 개발자로서 어떤 역량을 갖춰야 할지 스스로와 AI에게 되묻게 된다. 막연한 불안감을 느끼는 건 누구나 마찬가지지만, 우리는 결국 한 걸음씩 나아가야 한다.
이제 소비자들이 자연스럽게 LLM 모델을 유료로 구독해 사용하는 시대다. 그만큼 웹 서비스를 제공하는 기업들도 AI 모델을 탑재하는 것이 점점 당연한 흐름이 되고 있다. 하지만 직접 LLM 모델을 개발·운영하는 데에는 막대한 시간과 비용이 들며, 이미 시장에 자리잡은 기존 서비스들과 경쟁하는 것도 쉽지 않다. 이 때문에 중간에서 LLM 모델들을 연결해 주는 플랫폼 서비스들이 급부상하고 있다. 앞으로는 이러한 모델 활용 플랫폼들이 AI 생태계에서 중요한 역할을 차지하게 될 가능성이 크다.
최근 FriendliAI를 접하고 직접 로그인해 Playground에서 모델을 호출해 보았다. 프롬프트를 입력했을 때, 내가 평소 사용하던 ChatGPT의 GPT-4o 호출 속도나 Cursor AI의 Claude-Sonnet 호출 속도보다 훨씬 빨랐다. 입력 후 엔터를 치자마자 결과가 실시간으로 써 내려갔다. 자체 구축된 엔진을 통해 매우 빠른 추론 속도를 유지하면서도 정확한 응답을 제공하는 듯한 인상을 받았다. 이런 속도가 머지않아 업계의 표준이 될 것이라 생각하니 기대감과 함께 적잖은 충격도 느껴졌다.
이러한 변화 속에서 FE 개발자는 자연스럽게 AI 서비스의 성능·사용성·비즈니스 목표를 직접 구현하는 핵심 역할을 맡게 될 것이다. 단순히 UI를 구현하는 것만으로는 경쟁력을 유지하기 어려우며, AI 서비스의 데이터 흐름을 이해하고 실시간, 즉 스트리밍 기반 UI를 구현할 수 있어야 한다.
실제로 네트워크 탭을 열어 프롬프트 작성 시 어떤 호출이 이루어지는지 살펴보았다. 백그라운드에서는 일정 간격으로 GraphQL 요청을 보내 모델 상태, 큐 상태, 통계 등을 폴링하는 것을 확인할 수 있었다. 또한 프롬프트 입력 시 completions API를 호출해 LLM 추론 엔드포인트가 동작하고 있었고, 클라이언트는 스트리밍 형태로 응답을 받아 UI에 실시간으로 렌더링하고 있었다.
사용자가 느끼기에 응답이 ‘실시간’으로 도착한다고 인식하게 되면 기다림에 대한 심리적 부담이 줄고 경험 만족도가 높아진다. 이를 위해서는 SSE, WebSocket, Fetch Stream 같은 스트리밍 프로토콜을 활용하고, TextDecoder로 chunk 단위 데이터를 처리하는 방식에 익숙해야 한다.
또한 사용자의 조건에 따라 파라미터를 제어해 결과나 과정을 제한할 수 있어야 한다.
출력 조절, 응답 토큰 제한, 모델 제한 등은 단순 기능이 아니라 비즈니스 전략의 일부가 될 수 있다.
물론 모던한 UI/UX 설계도 빼놓을 수 없다. 심플하면서 쾌적하고, 접근성이 우수해야 하는 것은 기본이다. 특히 일반 사용자가 아닌 개발자를 대상으로 할 경우, 불필요한 절차를 최소화해 DX(Developer Experience) 피로도를 줄이는 것이 중요하다. 데이터를 직관적으로 확인할 수 있는 시각화 요소에도 신경을 써야 한다. AI 특화 UI/UX를 구현할 수 있는 역량은 향후 큰 차별화 요소가 될 가능성이 높다.
결국 프론트엔드 개발자는 기존 기술에서 단순히 ‘레벨업’하는 수준을 넘어, 한 차원 더 높은 역량을 갖추는 것이 변별력이 될 것이다. LLM 모델들이 빠르게 진화하듯, 우리도 가능한 한 빠르고 정확하게 성장해야 한다. 언제나 그렇듯, 시대를 반영한 변별력은 스스로의 환경을 개선할 수 있는 중요한 열쇠가 될 것이다.