window function은 행을 기준으로 하는 연산입니다. 이전 row, 다음 row에 접근할 수 있고 그 범위를 정해 그 안에서 여러 연산을 수행할 수 있습니다.
wikipedia - SQL window function
행을 돌면서 할 수 있는 것들로는
- 순위
- 분석
- 집계 및 누적 연산
정도를 예시로 들 수 있겠습니다.
sql window와 spark window의 개념이 다르지는 않습니다. 분석은 잘 몰라서 건너뛰고, 순위 매기는 것과 누적 연산을 pyspark에서 해보겠습니다.
사전 환경 및 sample data, dataframe는 다음과 같습니다.
1 |
|
순위 매기기
sql에서 rank, row_number의 역할과 동일합니다. platform 별로 파티션을 나누고, 총 이용금액을 기준으로 순위를 매겨보겠습니다.
1 |
|
withColumn 메서드로 totalPrice, rank 컬럼을 새로 만들었습니다.
rank 컬럼을 만드는 함수인 rank_function에는 rank() 메서드에서 필요로 하는 partitionBy, orderBy 등의 조건이 들어가 있습니다.
1 |
|
위 sql expression과 동일하게 동작합니다.
totalPrice는 month * price이고, totalPrice가 큰 순서대로 순위를 매겼습니다. platform을 기준으로 파티션이 분리된 채로 각 파티션 별로 연산이 수행된 결과를 볼 수 있습니다.
누적 합계 연산
platform 별로 totalPrice 누적합을 구해보겠습니다.
1 |
|
rank와 방식이 크게 다르지는 않습니다. 동일하게 window function을 이용하고, spark function을 rank를 쓰느냐 sum을 쓰느냐의 차이만 있습니다.
rowsBetween
rowsBetween은 window의 범위를 정하는 역할입니다. 윈도우에 포함될 행을 정하는 것이기도 합니다. 개인적으로 window function에서 제일 이해하는데 오래 걸렸던 부분입니다.
매개변수는 2개를 갖는데, 시작과 끝을 명시해 범위를 정합니다.
1 |
|
start와 end에는 숫자가 들어가는데, 0을 기준으로 숫자가 줄어들면 이전 row, 숫자가 늘어나면 다음 row를 window 범위로 정합니다.
즉,
1 |
|
이렇게 범위를 지정하면 현재 row를 기준으로 전전 row, 다다음 row까지를 window의 범위로 지정합니다.
window 범위에 따라 연산의 결과가 어떻게 달라지는지 누적 합계 연산에 적용시켜 확인하겠습니다. rowsBetween은 over 안에 조건에 추가해주면 됩니다.
1 |
|
rowsBetween을 적용하고 나니, 뭔가 이상한 누적합 결과가 나왔습니다. 한 번에 보면 정신이 없으니까 Netflix만 따로 떼서 보겠습니다.
1 |
|
첫 누적합 결과는 77000입니다. 왜일까요?
아까 우리는 rowsBetween 메서드로 window 범위를 내 전전 row, 다다음 row까지로 정했습니다. partition을 나누어서 연산하고 있기 때문에 첫번째 row의 전전 row는 없습니다. 그렇다면 누적합이 실행되는 범위는 다음과 같습니다.
1 |
|
window 범위 안의 모든 totalPrice의 합(14000 + 28000+ 35000)이 첫 번째 row의 누적합 결과가 됩니다.
두번째 누적합 결과도 볼까요?
1 |
|
row가 한 칸 내려오면서, 전 row가 생겼습니다. 그렇다면 범위에 들어있는 모든 row의 totalPrice의 합(14000 + 28000 + 35000 + 72000)이 두 번째 row의 누적합 결과가 됩니다.