2025-12-15 데일리 회의
1. 개요
- 일자: 2025년 12월 15일
- 참석: 클라이언트, AI, 백엔드 전원
- 키워드: SpeakQuest, 인터뷰, 결과창, LLM API 변경, Redis, VLLM
2. 논의 요약
2.1 주요 논의
- SpeakQuest 전반 기능은 대부분 구현 완료 단계.
- 스피킹 결과 텍스트가 너무 빠르게 사라지는 문제로 우측 별도 결과 패널 필요성 논의.
- 스피킹/리스닝/라이팅 종료 시 전체 종합 결과창을 한 번 더 노출하는 방향으로 정리.
- 인터뷰 팝업 및 플로우 전반 재정리 완료.
2.2 기술 / 기획 관련 논의
- Chat / LLM API 구조 변경
- System Prompt 제거.
- Question + Context(진행 중 시나리오 정보)만 전달.
- 시나리오 ID 또는 Stage 기반 컨텍스트 전달 합의.
- 결과 데이터는 Redis에 누적 후 최종 Result API 한 번 호출로 종합 점수 반환.
- 음성 데이터는 클라이언트에서 직접 사용하지 않고, 필요 시 별도 요청 구조로 단순화.
- VLLM 적용 결과 기존 대비 약 1.5~2배 성능 개선, GPU 리소스 공유 이슈는 팀 간 협의 필요.
- 쓰기(OCR) 모델 교체 후 인식률 향상 → 기준 점수 90점으로 상향.
2.3 일정 / 운영 관련 논의
- 스피킹 퀘스트 1차 목표: 금일 내 전체 플로우 완성.
- 백엔드:
- 월~화: Context + Question 기반 응답 처리.
- 목~금: 누적 질문 기반 RAG/저장 구조 확장 검토.
- 화면 설계 관련:
- 화면 구성 합의 부족 문제 인지.
- 데이터 배치 기준이 명확한 간단한 화면 와이어 정리 필요.
3. Action Items
클라이언트 팀
- [ ] 스피킹/리스닝/라이팅 개별 결과 UI + 종합 결과 UI 분리 구현 (담당: 배주백, 기한: 12/15)
- [ ] 결과 텍스트 노출 타이밍 조정 및 우측 패널화 (담당: 배주백)
- [ ] 화면 단위 데이터 배치 기준을 정리한 간단한 와이어 작성 (담당: 배주백)
AI 팀
- [ ] LLM API 변경 적용 (System Prompt 제거, Context 기반 처리) (담당: AI 팀)
- [ ] OCR 점수 기준 상향 및 테스트 지속 (담당: AI 팀)
- [ ] VLLM 사용 시 GPU 리소스 협의 진행 (담당: AI 팀)
DevOps / 전반
- [ ] Redis 기반 Result 누적 → 최종 Result API 구조 안정화 (담당: 백엔드)
- [ ] 사용자 생성 시 500 에러 수정 배포 (담당: 백엔드)
4. 회고
4.1 잘된 점 (Keep)
- SpeakQuest 핵심 플로우가 실제 플레이 기준으로 거의 완성 단계에 도달.
- OCR/스피킹 성능 개선이 수치로 확인됨.
- API 역할 분리가 비교적 명확해짐.
4.2 미진한 점 (Problem)
- 화면 단위 데이터 합의 부족으로 UI 구현이 각자 다르게 진행됨.
- GPU 리소스 공유 정책 부재로 AI 성능 활용에 제약.
4.3 다음 단계 (Try)
- 화면 단위 데이터 계약(Contract)을 먼저 정의 후 구현 진행.
- 결과 UI를 “과정 결과”와 “최종 평가”로 명확히 분리.
- AI 성능 개선은 기능 완성 이후 단계적으로 확장.