엑셀로 데이터 작업하는 사람이라면
한 번쯤은 이런 경험 있을 거다.
- 파일 더블클릭 → 안 열림
- 열리긴 하는데 멈춤
- 필터 누르는 순간 응답 없음
- 저장하다가 튕김
이럴 때 대부분 이렇게 생각한다.
“내 컴퓨터가 구린가…?”
근데 문제는 컴퓨터가 아니라
엑셀 자체 구조인 경우가 많다.
엑셀은 원래 대용량용이 아니다
엑셀의 최대 행 수는
1,048,576행이다.
이론상으로는 충분해 보이지만
실제로는 이렇다.
- 50만 행만 넘어가도 버벅임
- 함수 조금만 많아도 느려짐
- 필터, 정렬, 저장 시 체감 지연
특히 아래 조합이면 거의 확정이다.
- CSV 파일
- 컬럼 10개 이상
- 한글 데이터 포함
- 숫자 + 문자열 섞임
👉 이 상태에서 엑셀 열면
버티는 게 아니라 참는 느낌이 된다.
“엑셀로 열리긴 하는데요?”의 함정
가장 위험한 상황은 이거다.
“열리긴 열리니까 그냥 쓰자”
문제는 여기서부터다.
- 일부 행이 잘려서 로드됨
- 숫자가 자동으로 날짜로 바뀜
- 앞자리 0 사라짐
- 전화번호 지수 표기법으로 변환
이걸 나중에 알아차리면
이미 데이터는 망가진 상태다.
👉 엑셀은 조용히 데이터를 바꾼다.
그럼 대안은 뭐냐?
1️⃣ CSV는 바로 엑셀로 열지 말 것
대용량 CSV라면
더블클릭 금지다.
대신:
- 데이터 미리보기 도구
- DB 툴
- 전용 뷰어
를 쓰는 게 맞다.
2️⃣ DuckDB 같은 로컬 DB 사용
대용량 데이터 확인 + 가공 목적이면
로컬 DB가 훨씬 안정적이다.
장점은 이거다.
- 수백만~천만 행도 바로 읽힘
- CSV를 그대로 사용 가능
- 필터, 집계가 즉각 반응
- 원본 데이터 손상 없음
엑셀은
👉 “결과 확인용”
👉 “보고용”
으로만 쓰는 게 제일 안전하다.
3️⃣ 엑셀은 잘게 나눠서 쓰기
정 엑셀을 써야 한다면:
- 필요한 컬럼만 추출
- 조건 필터 후 저장
- 10만 행 단위로 분리
이 방식이 그나마 현실적인 타협이다.
대용량 데이터 작업 추천 흐름
정리하면 이 순서가 제일 편하다.
- 원본 CSV → DB에서 확인
- 필요한 조건만 추출
- 정제된 결과만 엑셀로 export
- 엑셀에서는 수정 금지, 확인만
이렇게 하면
- 엑셀 튕김 없음
- 데이터 손상 없음
- 작업 스트레스 급감
결론
엑셀은 나쁜 도구가 아니다.
다만 대용량 데이터용 도구는 아니다.
엑셀이 버거워지기 시작했다면
그건 실력 문제가 아니라
도구를 바꿀 타이밍이다.
엑셀로 억지로 버티는 시간보다
다른 도구 한 번 써보는 게 훨씬 빠르다.
댓글