주요 Spark로 여러 출력에 쓰기-하나의 Spark 작업 단일 작업에서 Spark를 사용하여 키에 따라 여러 출력에 쓸 수있는 방법은 무엇입니까? 관련 : 키 스케일링 하둡, 하나의 MapReduce 작업으로 여러 출력에 쓰기 예 sc.makeRDD(Seq((1, "a"), (1, "b"), (2, "c"))) .writeAsMultiple(prefix, compressionCodecOption) 보장 할 것 cat prefix/1입니다 a b 그리고 cat prefix/2것 c 편집 : 최근에 전체 가져 오기, 포주 및 압축 코덱을 포함하는 새로운 답변을 추가했습니다 .https : //stackoverflow.com/a/46118044/1586965 참조 하십시오 . 이전 답변 외에도 도움이 될 수..