News/SK텔레콤
[T-TIME☕] 실험과 코드로 내일을 설계하다 ⚙ SKT AI R&D 개발자 이야기
감노리
2025. 6. 17. 10:00
[T-TIME☕] 실험과 코드로 내일을 설계하다 ⚙ SKT AI R&D 개발자 이야기
안녕하세요. SK텔레콤 취재기자 김민서입니다. 🎤
AI 기술이 눈부시게 발전하는 지금, 그 속엔 수많은 실험과 고민을 거듭해온 개발자들의 시간이 켜켜이 쌓여 있습니다. 이번 [T-TIME☕]에서는 그 여정을 함께해 온 두 명의 SK텔레콤 AI R&D 개발자를 만나 이야기를 나눴습니다.
단순한 성능 향상을 넘어, ‘진짜 도움이 되는 AI’란 무엇인지 끊임없이 묻고 답하는 사람들.
그들의 실험과 협업, 몰입의 과정을 지금부터 함께 들여다보시죠!
SK Careers Editor 21기 김민서
현정님: 안녕하세요. SK텔레콤 AI R&D 센터 BioMedical AI 개발팀에서 근무 중인 입사 3년 차 개발자 강현정입니다.
재경님: 안녕하세요. SK텔레콤 AI Model lab, Model Alignment팀 소속으로 올해로 3년 차를 맞은 개발자 조재경입니다.
현정님: BioMedical AI 개발팀은 딥러닝 기반의 진단, 예측, 건강 모니터링 기술을 통해 의료진과 환자 모두에게 더 나은 의료 경험을 제공하는 솔루션을 연구하고 개발하는 조직이에요. 그중 저는 반려동물 진단 보조 서비스인 ‘X-Caliber’ 프로젝트에서, 개의 근골격계 질환을 진단하는 AI 모델을 개발하고 있습니다. 의료 데이터를 바탕으로 질환을 사전에 예측하거나 판독할 수 있도록 모델을 고도화하고 있으며, 실제 진료 현장에서 신뢰도 높은 보조 수단이 될 수 있도록 다양한 측면에서 모델을 개선해가고 있습니다.
재경님: SK텔레콤 고유의 LLM 'A.X'의 개발과 고도화를 맡고 있습니다. LLM 개발은 대규모 데이터를 기반으로 언어 능력을 학습시키는 pre-training과, 사용자와의 상호작용을 통해 응답의 질을 개선하는 post-training으로 나뉘는데요. 저는 이 중에서 post-training을 담당하고 있으며, 다양한 유즈케이스에서 수집한 로그와 피드백을 바탕으로 모델 성능을 정제하는 작업도 함께 진행하고 있습니다.
현정님: X-Caliber는 현재 국내외 여러 동물병원에서 사용 중이며, 기존 모델의 유지와 새로운 서비스 확장이 동시에 이뤄지고 있어요. 제가 담당하는 개 근골격계 진단 모델은 2022년 출시와 함께 처음 적용된 이후 다양한 고객 피드백이 누적되어 있는 상황이에요. 현장의 요구 중 시급하거나 필수적인 항목을 중심으로 사업팀, 개발팀, 자문 수의사가 협의해 우선순위를 정하고, 개발이 적합한 질환인지, 학습에 필요한 데이터를 확보할 수 있는지를 함께 검토합니다. 또한, 의료 서비스 특성상 모든 과정에서 자문 수의사와 긴밀히 협업하며, 임상적 타당성과 정확도를 지속적으로 확인하고 있습니다.
재경님: LLM의 post-training 업무는 약 1~2개월 단위로 반복됩니다. 먼저 성능 개선이 필요한 도메인을 선정해 평가 벤치마크를 구축하고, 그에 맞는 학습 알고리즘을 결정해 구현합니다. 이후 기존 데이터를 정제하거나 필요한 데이터를 추가해 학습 환경을 구성하고, GPU 리소스를 고려해 실험 계획을 세웁니다. 실험이 완료되면 다양한 유즈케이스에서 수집한 로그와 피드백을 기반으로 성능을 평가하고, 가장 우수한 모델을 선정해 릴리즈하는 구조입니다.

현정님: 기억에 남는 건 데이터 정제 작업이에요. 데이터 수가 적은 데다 사람이 직접 작업하다 보니 휴먼 에러가 자주 발생했어요. 이를 줄이기 위해 자체 어노테이션 툴을 개발하고, 작업 기준이 달라지지 않도록 가이드라인도 보완했죠. 포맷이 다른 데이터를 통합해 안정적으로 관리할 수 있도록 파이프라인도 구축했습니다.
두 번째로는 고객의 사용 방식과 개발자의 관점 차이였어요. 학습 데이터와 전혀 다른 분포의 영상이 들어오는 경우가 있었는데요. 단순히 분포 차이를 줄이기보다는, 그런 요청이 왜 발생했는지를 분석했고, 결국 기존 아키텍처가 현장 워크플로우와 맞지 않는다는 걸 알게 되었어요. 이후 전처리 모듈을 새로 설계하고 아키텍처를 조정하며 문제를 해결했습니다
재경님: 첫 번째는 부족한 GPU 자원에서 실험 효율을 높이는 일이었습니다. 내부에 맞는 방식으로 알고리즘을 개선하고, 연산량을 줄이며 분산처리를 최적화했어요. 라이브러리까지 직접 수정해 기존보다 2~3배 빠른 학습 속도를 달성할 수 있었습니다.
두 번째는 LLM 평가 체계 통합이었어요. 결과가 팀원마다 달라지는 문제를 해결하기 위해, 다양한 평가 수치를 하나의 파이프라인에 묶고 자동화 시스템을 구축했어요. 여기에 GUI 기반 협업 도구도 더해져 평가 일관성과 효율이 모두 높아졌습니다.

