Showing Posts From
설문
- 27 Dec, 2025
설문 응답률이 5%일 때 나는 뭘 해야 하나
설문 응답률이 5%일 때 나는 뭘 해야 하나 월요일 오전, GA4를 열었다 출근해서 커피 한 잔 들고 GA4 대시보드를 켰다. 지난주 금요일에 띄운 인앱 설문. 목표 응답 수는 500개였다. 발송 대상은 10,000명. 현재 응답 수: 482개. 응답률: 4.82%.5%도 안 된다. 통계적 유의성은 간신히 확보. 근데 이게 우리 유저를 대표한다고 말할 수 있나. 팀장한테 슬랙이 왔다. "설문 결과 언제 나와요?" "오늘 오후에 드릴게요." 대답은 했는데 마음이 무겁다. 5%라는 숫자의 의미 9년 차 하면서 느낀 거. 설문 응답률 5%는 사실 나쁘지 않다. 업계 평균이 3~5%니까. 근데 문제는 이 5%가 누구냐는 거다. 우리 서비스 MAU는 50만. 이번 설문 대상은 최근 30일 활성 유저 중 무작위 1만 명. 그 중 482명이 응답했다. 이 482명이 정말 50만 명을 대표할까.응답한 사람들의 특징을 봤다.주 5회 이상 접속: 68% 30대: 54% 앱 체류 시간 상위 30%: 71%우리 전체 유저는.주 5회 이상 접속: 31% 30대: 42% 체류 시간 분포: 정규분포에 가까움완전히 다르다. 응답자들은 우리 서비스를 사랑하는 코어 유저다. 라이트 유저는 설문을 안 봤거나 무시했다. 그럼 이 결과로 뭘 해야 하나. 리서치팀 회의는 매번 같다 오전 11시, 주간 리서치 회의. 나, 리서치 담당 대리, 팀장. 팀장이 물었다. "응답률이 낮은데 어떻게 할 거예요?" 대리가 먼저 말했다. "리워드를 높이면 될 것 같아요. 지금 500원 적립인데 1000원으로." 팀장이 고개를 저었다. "마케팅 예산 없어요. 다른 방법은?" 내가 말했다. "응답률 높이는 것보다 샘플 편향을 인정하고 해석하는 게 맞습니다." "무슨 뜻이죠?" "이 결과는 코어 유저 의견입니다. 전체 유저 대표하지 않아요. 그걸 명시하고 인사이트를 제한적으로 쓰는 거죠."대리가 반박했다. "그럼 기획팀이 안 믿을 텐데요?" "안 믿게 만들어야죠. 우리가 과대해석하면 잘못된 의사결정 나와요." 팀장이 한숨 쉬었다. "그래도 뭔가 액션은 있어야 하는데." 회의는 결론 없이 끝났다. 매번 이렇다. 리소스 대비 효율성의 딜레마 설문 하나 만드는 데 걸린 시간.질문 설계: 3시간 내부 검토: 2시간 기술팀 연동: 4시간 테스트: 1시간총 10시간. 내 시급으로 계산하면 약 40만원. 리워드 비용 24만원. (500원 × 482명) 기술팀 공수까지 합치면 80만원쯤. 결과는 코어 유저 482명의 의견. 이게 효율적인가. 작년에 유저 인터뷰를 10명 진행했다. 준비 5시간, 인터뷰 10시간, 분석 8시간. 총 23시간, 약 100만원. 근데 그때 나온 인사이트는 지금도 쓴다. "사용자들은 검색보다 추천을 신뢰한다." 이 한 줄이 3개 기능 기획에 영향을 줬다. 설문 482개 응답에서 나온 건. "추천 기능 만족도 4.2점." 이게 뭘 의미하는지 아무도 모른다. 정량과 정성. 어느 게 더 효율적인가. 답은 없다. 샘플 수 부족을 어떻게 해석할 것인가 오후 3시, 설문 결과를 정리했다. 첫 페이지에 박스를 만들었다. 빨간색 테두리. "⚠️ 해석 시 유의사항응답률: 4.82% (482/10,000) 응답자 특성: 헤비 유저 편향 대표성: 전체 유저 대표 불가 용도: 코어 유저 니즈 파악용"그 아래 분석을 썼다.코어 유저는 추천 기능에 만족한다. (4.2/5점) 근데 라이트 유저 의견은 모른다. 라이트 유저가 전체의 70%다. 그러므로 이 결과만으로 추천 기능 강화 판단 어렵다. 추가 리서치 필요: 라이트 유저 대상 인터뷰 5명.팀장한테 보냈다. 30분 뒤 답장. "기획팀이 이미 추천 강화하기로 했어요. 이 결과로 정당화하려는 건데." 아. 그렇구나. 의사결정은 이미 끝나 있었다 오후 4시, 기획팀 회의에 불려갔다. PM이 말했다. "설문 결과 봤어요. 만족도 4.2점이면 충분히 높죠?" "네, 근데 응답자가 헤비 유저라서—" "헤비 유저가 우리 매출의 80%예요. 걔네가 좋아하면 되는 거 아니에요?" "그건 맞는데 라이트 유저 이탈 리스크가—" "라이트 유저는 어차피 전환율 낮아요. 신경 안 써도 돼요." PM은 이미 추천 기능 강화를 결정했다. 내 설문은 그냥 근거 자료. 샘플 편향이든 뭐든 중요하지 않다. 회의 끝나고 자리로 돌아왔다. 대리가 물었다. "어떻게 됐어요?" "그냥 하기로 했어." "응답률 5%인데요?" "상관없대." 대리가 한숨 쉬었다. 나도 쉬었다. 그래서 나는 뭘 해야 하나 퇴근 전, 노션에 회고를 썼다. 설문 482개 응답 - 2024.01.15 문제점:응답률 5%, 헤비 유저 편향 샘플 대표성 부족 명시했으나 의사결정에 반영 안 됨 리서치가 의사결정 도구가 아닌 정당화 도구로 사용됨배운 점:정량 리서치의 한계를 명확히 인지 샘플 편향은 피할 수 없다. 인정하고 명시하는 게 최선 의사결정자가 듣고 싶은 결과를 원한다면 리서치 의미 없음다음에 할 것:설문보다 인터뷰 우선 제안 리서치 목적 사전 명확화 (의사결정 vs 검증) 응답률 낮을 거 같으면 샘플 수 늘리기근데 솔직히 말하면. 이런 회고를 몇 번째 쓰는지 모르겠다. 9년 차가 돼도. 설문 응답률 5%는 여전히 고민이다. 정량 리서치의 현실 집에 가는 전철 안에서 UX 아티클을 읽었다. "How to improve survey response rate" 방법 10가지.리워드 높이기 질문 줄이기 발송 타이밍 조정 개인화된 메시지 모바일 최적화 진행률 표시 A/B 테스트 리마인더 발송 감정적 소구 브랜드 신뢰 활용다 안다. 다 해봤다. 작년에 리워드 1000원으로 올렸을 때. 응답률 7.3%까지 올랐다. 근데 마케팅팀이 예산 없다고 했다. 질문 10개에서 5개로 줄였을 때. 응답률 6.1%. 근데 인사이트가 너무 얕았다. 모바일 최적화는 이미 돼 있다. 진행률 표시도 있다. 리마인더는 스팸 취급 받는다. 결국 남는 건. 유저는 설문에 관심 없다는 사실. 우리가 궁금한 거랑. 유저가 답하고 싶은 거랑. 완전히 다르다. 샘플 편향과 의사결정 사이 집에 도착해서 맥주 한 캔 땄다. 남편이 물었다. "오늘 어땠어?" "설문 응답률 5%." "그거 괜찮은 거 아니야?" "응답한 사람들이 다 헤비 유저야." "그럼 헤비 유저 의견으로만 쓰면 되지." "기획팀은 전체 유저 의견인 것처럼 쓰고 싶어 해." 남편은 개발자라 이해가 빠르다. "그럼 데이터 신뢰도 낮아지는 거네." "응." 남편이 말했다. "근데 5% 응답률로 의사결정 하는 회사가 우리만은 아닐 거야." 맞는 말이다. 넷플릭스도 설문한다. 아마존도 설문한다. 그들도 응답률 10% 안 된다. 근데 그들은 MAU가 억 단위다. 5%도 수백만 명이다. 우리는 MAU 50만에 5%면 2만 5천. 근데 실제 응답은 482명. 스케일이 다르다. 그럼 대안은 뭔가 노트북을 켜서 다음 주 리서치 계획을 짰다. Option 1: 설문 포기하고 인터뷰라이트 유저 5명, 헤비 유저 5명 깊이 있는 인사이트 리소스: 30시간, 비용 150만원 문제: 샘플 수 적어서 기획팀이 안 믿을 수도Option 2: 행동 데이터 분석GA4 + Amplitude 코호트 분석 추천 클릭율, 체류시간, 전환율 리소스: 15시간, 비용 0원 문제: 'Why'는 모름Option 3: 혼합 리서치행동 데이터로 가설 도출 인터뷰로 'Why' 파악 설문은 보조 자료로만 리소스: 40시간, 비용 100만원 문제: 시간 오래 걸림Option 3이 제일 합리적이다. 근데 팀장이 좋아할까. "40시간이요? 설문은 10시간인데." 이럴 거다. 9년 차의 고민 자기 전에 UX 커뮤니티 슬랙을 봤다. 3년 차 후배가 질문을 올렸다. "설문 응답률 3%인데 이거 써도 될까요?" 다들 답변을 달았다. "통계적으로 유의하면 돼요." "응답률보다 샘플 수가 중요해요." "편향 없으면 괜찮아요." 나는 답글을 쓰다가 지웠다. 진짜 하고 싶은 말은. "3%든 30%든, 의사결정자가 듣고 싶은 답이 있으면 소용없어." 근데 이렇게 쓰면 너무 냉소적이다. 결국 이렇게 썼다. "응답률보다 응답자 프로필을 먼저 보세요. 편향 있으면 명시하고, 제한적으로 해석하세요. 그게 리서처의 책임이에요." 후배가 답했다. "감사합니다. 근데 기획팀이 이미 의사결정 한 것 같은데 어떻게 하죠?" 나는 답하지 않았다. 나도 모르니까. 9년 차인데도. 결국 내가 할 수 있는 건 다음 날 출근해서. 팀장한테 제안서를 썼다. 제목: 정량 리서치 프로세스 개선안 현황:설문 응답률 평균 5% 헤비 유저 편향 지속 리서치 결과의 제한적 활용제안:설문은 가설 검증용으로만 사용 의사결정용은 혼합 리서치 (데이터 + 인터뷰) 리서치 목적 사전 정의 필수화 샘플 편향 명시 가이드라인 수립기대효과:리서치 신뢰도 향상 잘못된 의사결정 방지 리소스 효율적 배분팀장이 읽더니 말했다. "좋은데, 기획팀 설득이 문제네요." "제가 하겠습니다." "예산은요?" "기존이랑 비슷해요. 배분만 다르게 하는 거라." 팀장이 고개를 끄덕였다. "한번 해봐요." 수요일, 기획팀 설득 PM 앞에서 10분 발표했다. "설문 응답률 5%는 업계 평균입니다. 문제는 응답률이 아니라 샘플 편향이에요. 헤비 유저만 답하면 전체 의견이 아니죠." PM이 물었다. "그럼 어떻게 하자는 거예요?" "설문은 빠른 체크용으로만 쓰고, 중요한 의사결정은 데이터 분석과 인터뷰를 병행하자는 겁니다." "시간 오래 걸리잖아요." "잘못된 결정으로 개발 리소스 낭비하는 것보다 낫습니다." PM이 잠시 생각하더니. "이번 추천 기능은 이미 시작했으니, 다음 건부터 해봐요." 이긴 건지 진 건지 모르겠다. 근데 뭔가는 바뀌는 거니까. 금요일, 새로운 리서치 시작 이번엔 제대로 해보기로 했다. 리서치 목표: 라이트 유저 이탈 원인 파악 1단계: GA4 코호트 분석 (1주)라이트 유저 정의 (월 1~2회 방문) 이탈 시점 패턴 파악 마지막 액션 분석2단계: 설문 (1주)라이트 유저 타겟팅 5개 질문으로 최소화 이탈 이유 객관식 + 주관식3단계: 인터뷰 (2주)설문 응답자 중 5명 선정 깊이 있는 대화 개선 아이디어 도출총 4주. 전보다 길다. 근데 이번엔 확신이 있다. 응답률 5%여도 괜찮다. 편향 있어도 괜찮다. 그걸 인정하고 보완하면 되니까. 그리고 한 달 후 리서치 결과를 정리했다. GA4 분석:라이트 유저 중 38%가 첫 방문 후 7일 내 이탈 이탈 직전 액션: 검색 → 결과 없음 → 종료설문 결과: (응답률 4.1%, 127명)이탈 이유 1위: "원하는 콘텐츠가 없어서" (52%) 추천 기능 인지율: 23%인터뷰 인사이트: (5명)"추천이 있는 줄 몰랐어요." "검색하면 없어서 그냥 나가요." "자주 안 쓰니까 뭐가 있는지 몰라요."결론:추천 강화보다 검색 개선 우선 신규 유저 온보딩 필요 추천 노출 위치 재검토PM이 말했다. "이거 설득력 있네요. 방향 바꿔봐야겠어요." 팀장이 미소 지었다. 나도 웃었다. 설문 응답률은 여전히 5%. 근데 이번엔 그게 문제가 아니었다.응답률 5%는 현실이다. 피할 수 없다면 인정하고 보완하면 된다. 그게 9년 차가 배운 것이다.
- 14 Dec, 2025
설문 문항 하나 때문에 3시간 회의한 날
오전 10시, 회의실 설문 문항 검토 회의다. 30분 잡았다. "이 문항 어때요? '서비스 이용에 만족하십니까?'" 마케팅팀 대리가 물었다. 나는 고개를 저었다. "너무 포괄적이에요. 무엇에 대한 만족인지 명확하지 않아요." "그럼 뭐가 문제인데요?" 설명을 시작했다. 만족도라는 게 단일 차원이 아니라는 것. 기능 만족, 디자인 만족, 속도 만족이 전부 다르다는 것. "그럼 이렇게 하죠. '서비스 기능에 만족하십니까?'" 여전히 안 된다. '기능'도 애매하다. 검색 기능인지, 결제 기능인지, 알림 기능인지.회의실에 침묵이 흘렀다. 데이터팀 팀장이 말했다. "근데 너무 세분화하면 문항 수가 너무 많아지는데요?" 맞는 말이다. 설문 길이와 정확성의 트레이드오프. 항상 마주하는 딜레마다. 문항 설계의 함정 설문 문항 하나 만드는 게 이렇게 어렵다. 지난주에 진행한 설문이 있었다. "신기능을 자주 사용하십니까?" 라고 물었다. 결과는 70%가 "그렇다"였다. 우리는 좋아했다. 신기능이 잘 먹힌다고. 그런데 GA4 데이터를 보니 이상했다. 실제 사용률은 35%였다. 응답과 실제가 달랐다. 문제는 '자주'였다. 누구에게는 주 1회가 자주고, 누구에게는 하루 5회가 자주다. 주관적 표현이 데이터를 망쳤다. 리서치 결과를 가지고 기획 방향을 잡았는데, 그게 틀렸다는 얘기다. 3주 작업이 날아갔다. 그때부터 문항 하나에 집착한다. 단어 하나, 문장 구조 하나가 결과를 바꾼다.회의는 계속됐다 11시가 됐다. 아직도 같은 문항이다. "이렇게 물으면 어때요? '지난 한 달간 검색 기능을 몇 회 사용하셨습니까?'" 좋아졌다. 구체적이다. 기간도 명확하고, 기능도 명확하고, 빈도도 숫자로 받는다. 그런데 개발팀장이 손을 들었다. "사용자가 정확히 기억할까요? 저도 제가 한 달에 검색 몇 번 했는지 모르는데." 또 막혔다. 회상 오류. 리서치 방법론 수업에서 배운 개념이다. 사람들은 자신의 행동을 부정확하게 기억한다. 특히 반복적 행동은 더 그렇다. "그럼 선택지를 주면 어떨까요? 0-5회, 6-10회, 11-20회, 21회 이상." 구간을 나누면 회상 부담이 줄어든다. 하지만 또 다른 문제가 생긴다. "구간이 비대칭인데요?" 마케팅 팀장이 지적했다. "앞은 5회씩 나누고 뒤는 10회씩 나누면 왜곡 아닌가요?" 맞다. 구간 설정도 결과에 영향을 준다. 0-10회, 11-20회로 나누면 분포가 달라진다. 점심시간을 넘겼다 12시 반. 아직도 회의 중이다. 배가 고프다. 그런데 멈출 수가 없다. 이 문항으로 1500명한테 설문을 돌린다. 잘못 만들면 1500개의 쓸모없는 응답이 생긴다. "처음으로 돌아가죠. 우리가 진짜 알고 싶은 게 뭐죠?" 내가 물었다. 회의의 기본이다. 목적으로 돌아가기. "신기능이 사용자에게 유용한지 알고 싶어요." 프로덕트 오너가 답했다. "그럼 '유용함'을 어떻게 측정할 건데요?" 침묵. 유용함도 애매한 개념이다. 만족도처럼. "사용 빈도로 측정할까요? 아니면 만족도로 측정할까요?" 두 개는 다르다. 자주 쓰지만 만족하지 않을 수도 있다. 선택지가 없어서 쓰는 경우. 반대로 자주 안 쓰지만 만족할 수도 있다. 필요할 때만 쓰는 기능이면."둘 다 물어야 할 것 같은데요." 결국 문항이 2개가 됐다. 하나는 행동 측정, 하나는 태도 측정. 행동: "지난 한 달간 [기능명]을 사용한 횟수를 선택해주세요." 태도: "[기능명]이 귀하의 문제 해결에 도움이 되었습니까?" 두 번째 문항도 또 논쟁이 시작됐다. '문제 해결'이 명확한가. 어떤 문제인가. 1시, 드디어 문항 하나가 완성됐다. 정확히는 두 개가 됐지만. 3시간 걸렸다. "[기능명]을 지난 한 달간 사용한 횟수를 선택해주세요.사용하지 않음 1-3회 4-7회 8-15회 16회 이상""[기능명]을 사용했을 때, 원하는 결과를 얻는 데 도움이 되었습니까?전혀 도움 안 됨 별로 도움 안 됨 보통 도움 됨 매우 도움 됨 ※ 사용하지 않은 경우 '해당 없음' 선택"구간은 로그 스케일로 조정했다. 초기 사용자와 파워 유저를 동시에 잡기 위해. '문제 해결' 대신 '원하는 결과'로 바꿨다. 더 포괄적이고 덜 무겁다. 5점 척도는 리커트 표준. 홀수로 해야 중립 선택지가 생긴다. 이것도 논쟁이 있었지만 일단 표준을 따랐다. "해당 없음" 선택지를 추가했다. 사용 안 한 사람이 억지로 답하면 데이터가 오염된다. 회의 끝, 생각 시작 회의실을 나왔다. 점심을 먹으러 갔다. 동료가 말했다. "문항 하나에 3시간은 너무한 거 아니에요?" 나도 그렇게 생각했다. 아침에는. 그런데 지금은 아니다. 3시간이 아깝지 않다. 잘못된 문항으로 설문 돌리면 3주가 날아간다. 3시간은 투자다. 리서치의 정확성은 문항 설계에서 시작된다. 측정 도구가 잘못되면 측정 결과도 잘못된다. 물리학 실험처럼. 자가 휘어져 있으면 길이를 정확히 잴 수 없다. 설문도 마찬가지다. 문항이 애매하면 응답도 애매하다. 애매한 데이터로는 정확한 결론을 낼 수 없다. "우리가 데이터 기반 의사결정 한다고 하잖아요." 동료가 끄덕였다. "그 데이터의 품질은 질문의 품질에 달렸어요. 질문이 엉망이면 데이터도 엉망이고, 의사결정도 엉망이죠." 오후 3시, 다시 검토 회의실로 돌아왔다. 이번엔 혼자. 완성된 문항을 다시 봤다. 정말 완성된 걸까. 체크리스트를 꺼냈다. 늘 쓰는 거다.명확성: 질문이 하나의 의미만 갖는가? - OK 구체성: 시간, 대상, 범위가 명확한가? - OK 중립성: 유도 질문이 아닌가? - OK 측정 가능성: 응답자가 답할 수 있는가? - OK 일관성: 다른 문항과 모순 없는가? - 확인 필요전체 설문 흐름을 봤다. 20개 문항. 우리가 만든 건 15번, 16번 문항이다. 앞뒤 맥락을 확인했다. 14번 문항: "새로운 기능을 알고 계셨습니까?" 15번 문항: "[기능명]을 지난 한 달간 사용한 횟수..." 16번 문항: "[기능명]을 사용했을 때, 원하는 결과를..." 흐름이 자연스럽다. 인지 → 행동 → 태도. 리서치 프레임워크와 일치한다. 그런데 한 가지 더 보였다. 14번에서 "모름"을 선택한 사람은 15번, 16번을 스킵해야 한다. 조건부 질문 로직이 필요하다. 설문 도구 설정에 추가해야 한다. 디테일의 연쇄 문항 하나가 다른 문항에 영향을 준다. 15번에서 "사용하지 않음"을 선택하면 16번에서 "해당 없음"이 자동 선택되어야 한다. 응답자 경험을 생각하면 그렇다. 같은 질문을 반복하면 짜증 난다. 설문 이탈률이 올라간다. 완료율이 내려간다. 데이터 품질이 떨어진다. 이런 것까지 고려해야 한다. 문항 설계는 단순히 질문을 만드는 게 아니다. 응답자 여정을 설계하는 거다. UX 기획과 같다. 사용자 플로우를 그리듯이 응답 플로우를 그린다. Figma를 열었다. 설문 플로우를 그렸다. 시작 → 스크리닝 → 인지도 → 사용 경험 → 만족도 → 개선 의견 → 인구통계 → 종료 각 단계에서 분기 조건을 표시했다. 조건부 로직 6개. 스킵 로직 4개. 이걸 설문 도구에 구현해야 한다. 그것도 일이다. 오후 5시, 테스트 설문을 직접 응답해봤다. 연구원이 해야 하는 기본 중 기본이다. 자기가 만든 설문을 자기가 풀어보기. 1분 30초 걸렸다. 20개 문항. 적당하다. 3분 넘어가면 이탈률이 확 오른다. 그런데 11번 문항에서 걸렸다. "귀하의 직업을 선택해주세요." 선택지가 10개다. 너무 많다. 5개로 줄이고 "기타"를 추가하는 게 낫다. 또 수정이다. 11번 수정하면 전체 번호가 밀린다. 15번, 16번이 16번, 17번이 된다. 조건부 로직 설정도 다시 해야 한다. 이런 게 쌓인다. 수정이 수정을 낳는다. 그래서 처음에 제대로 만들어야 한다. 문항 하나에 3시간 쓰는 이유다. 파일럿 테스트 동료 5명에게 설문을 보냈다. 내부 테스트다. "10분 안에 풀어주시고, 이상한 부분 있으면 말씀해주세요." 30분 후 피드백이 왔다. "15번 문항 구간이 이상해요. 1-3회는 너무 적고 16회 이상은 너무 많은 것 같아요." "16번 문항에서 '원하는 결과'가 애매해요. 무슨 결과요?" "왜 중간에 기능 이름이 계속 반복돼요? 한 번만 나와도 될 것 같은데요." 피드백 3개. 모두 타당하다. 구간은 다시 조정했다. 1-2회, 3-5회, 6-10회, 11-20회, 21회 이상. 좀 더 세분화됐다. 초기 사용자 구간을 쪼갰다. '원하는 결과' 옆에 예시를 추가했다. (예: 필요한 정보 찾기, 작업 완료하기) 기능 이름은... 반복이 맞다. 각 문항이 독립적으로 이해돼야 한다. 응답자가 앞 문항을 기억한다고 가정하면 안 된다. 이건 설득했다. 근거를 댔다. 응답 오류를 줄이려면 맥락을 매번 제공해야 한다고. 오후 6시, 최종안 설문 최종안이 나왔다. 아침 10시부터 저녁 6시까지. 8시간. 문항 1개 완성하는 데 3시간, 전체 다듬는 데 5시간. 하루가 갔다. 다른 일은 못 했다. 그런데 후회는 없다. 이제 이 설문으로 1500명에게 물어볼 수 있다. 정확한 질문. 정확한 응답. 정확한 데이터. 정확한 인사이트. 이게 리서치의 가치다. 다음 주에 설문이 나간다. 응답률 목표는 30%. 450개 응답. 그 데이터로 기획 방향을 잡는다. 다음 분기 로드맵에 반영된다. 만약 문항이 잘못됐다면? 450개의 쓸모없는 응답. 잘못된 방향. 3개월 낭비. 3시간이 3개월을 살린다. 퇴근길 생각 지하철에서 생각했다. 리서치는 과학이다. 정확성이 생명이다. 문항 하나가 대충이면 전체가 대충이 된다. 설문은 체인처럼 연결돼 있다. '유저 리서치 비용이 너무 높다'는 말을 자주 듣는다. 맞다. 높다. 시간도 오래 걸린다. 그런데 부정확한 리서치 비용은 더 높다. 잘못된 방향으로 개발하는 비용. 다시 뒤집는 비용. 그걸 설득하는 게 내 일이다. 9년 차가 됐지만 여전히 어렵다. 데이터 기반 의사결정이라고 하면서 데이터 품질은 신경 안 쓴다. 모순이다. 질문이 틀리면 답도 틀리다. Garbage in, garbage out. 집에 왔다. 노트북을 켰다. 최종 설문안을 다시 봤다. 완벽하진 않다. 완벽한 설문은 없다. 하지만 최선은 다했다. 내일 아침 마케팅팀에 공유한다. 승인받으면 설문 도구에 세팅한다. 다음 주 월요일 발송. 2주간 데이터 수집. 그다음 주 분석. 한 달 프로젝트다. 문항 하나에서 시작하는.3시간 회의. 아깝지 않다. 정확성이 전부다.