2025-12-15 데일리 회의

1. 개요

  • 일자: 2025년 12월 15일
  • 참석: 클라이언트, AI, 백엔드 전원
  • 키워드: SpeakQuest, 인터뷰, 결과창, LLM API 변경, Redis, VLLM

2. 논의 요약

2.1 주요 논의

  • SpeakQuest 전반 기능은 대부분 구현 완료 단계.
  • 스피킹 결과 텍스트가 너무 빠르게 사라지는 문제로 우측 별도 결과 패널 필요성 논의.
  • 스피킹/리스닝/라이팅 종료 시 전체 종합 결과창을 한 번 더 노출하는 방향으로 정리.
  • 인터뷰 팝업 및 플로우 전반 재정리 완료.

2.2 기술 / 기획 관련 논의

  • Chat / LLM API 구조 변경
    • System Prompt 제거.
    • Question + Context(진행 중 시나리오 정보)만 전달.
    • 시나리오 ID 또는 Stage 기반 컨텍스트 전달 합의.
  • 결과 데이터는 Redis에 누적 후 최종 Result API 한 번 호출로 종합 점수 반환.
  • 음성 데이터는 클라이언트에서 직접 사용하지 않고, 필요 시 별도 요청 구조로 단순화.
  • VLLM 적용 결과 기존 대비 약 1.5~2배 성능 개선, GPU 리소스 공유 이슈는 팀 간 협의 필요.
  • 쓰기(OCR) 모델 교체 후 인식률 향상 → 기준 점수 90점으로 상향.

2.3 일정 / 운영 관련 논의

  • 스피킹 퀘스트 1차 목표: 금일 내 전체 플로우 완성.
  • 백엔드:
    • 월~화: Context + Question 기반 응답 처리.
    • 목~금: 누적 질문 기반 RAG/저장 구조 확장 검토.
  • 화면 설계 관련:
    • 화면 구성 합의 부족 문제 인지.
    • 데이터 배치 기준이 명확한 간단한 화면 와이어 정리 필요.

3. Action Items

클라이언트 팀

  • [ ] 스피킹/리스닝/라이팅 개별 결과 UI + 종합 결과 UI 분리 구현 (담당: 배주백, 기한: 12/15)
  • [ ] 결과 텍스트 노출 타이밍 조정 및 우측 패널화 (담당: 배주백)
  • [ ] 화면 단위 데이터 배치 기준을 정리한 간단한 와이어 작성 (담당: 배주백)

AI 팀

  • [ ] LLM API 변경 적용 (System Prompt 제거, Context 기반 처리) (담당: AI 팀)
  • [ ] OCR 점수 기준 상향 및 테스트 지속 (담당: AI 팀)
  • [ ] VLLM 사용 시 GPU 리소스 협의 진행 (담당: AI 팀)

DevOps / 전반

  • [ ] Redis 기반 Result 누적 → 최종 Result API 구조 안정화 (담당: 백엔드)
  • [ ] 사용자 생성 시 500 에러 수정 배포 (담당: 백엔드)

4. 회고

4.1 잘된 점 (Keep)

  • SpeakQuest 핵심 플로우가 실제 플레이 기준으로 거의 완성 단계에 도달.
  • OCR/스피킹 성능 개선이 수치로 확인됨.
  • API 역할 분리가 비교적 명확해짐.

4.2 미진한 점 (Problem)

  • 화면 단위 데이터 합의 부족으로 UI 구현이 각자 다르게 진행됨.
  • GPU 리소스 공유 정책 부재로 AI 성능 활용에 제약.

4.3 다음 단계 (Try)

  • 화면 단위 데이터 계약(Contract)을 먼저 정의 후 구현 진행.
  • 결과 UI를 “과정 결과”와 “최종 평가”로 명확히 분리.
  • AI 성능 개선은 기능 완성 이후 단계적으로 확장.

results matching ""

    No results matching ""