반응형
Notice
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 2
- 데이터분석
- 사이버보안
- 데이터구조
- 데이터과학
- 자바스크립트
- 딥러닝
- 컴퓨터비전
- 자료구조
- 프로그래밍
- 인공지능
- 소프트웨어
- 웹개발
- 프로그래밍언어
- 빅데이터
- 데이터베이스
- Yes
- 보안
- 네트워크
- I'm Sorry
- 네트워크보안
- 클라우드컴퓨팅
- 코딩
- 알고리즘
- 컴퓨터과학
- 버전관리
- 파이썬
- 컴퓨터공학
- 소프트웨어공학
- 머신러닝
Archives
- Today
- Total
목록"데이터분석" (1)
스택큐힙리스트
스파크-CSV를 사용하여 단일 CSV 파일을 작성합니다.
나는 https://github.com/databricks/spark-csv를 사용하고 있습니다. 단일 CSV를 작성하려고 시도하고 있지만, 폴더를 만들고 있습니다. 경로와 파일 이름과 같은 매개변수를 받아 해당 CSV 파일을 작성하는 스칼라 함수가 필요합니다.답변 1파일을 만드는 중입니다. 각 파티션은 개별적으로 저장되기 때문에 여러 파일이 들어있는 폴더가 생성됩니다. 하나의 출력 파일 (여전히 폴더 안에 있는)이 필요한 경우 repartition을 사용할 수 있습니다(상위 스트림 데이터가 큰 경우에 권장되며 셔플이 필요합니다): df .repartition(1) .write.format(com.databricks.spark.csv) .option(header, true) .save(mydata.csv..
카테고리 없음
2023. 11. 30. 00:26