일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 프로그래밍언어
- 코딩
- 컴퓨터공학
- I'm Sorry
- 파이썬
- 데이터과학
- 데이터베이스
- 2
- 데이터분석
- 데이터구조
- 소프트웨어공학
- 버전관리
- 컴퓨터과학
- 클라우드컴퓨팅
- 자바스크립트
- 자료구조
- 빅데이터
- 인공지능
- Yes
- 사이버보안
- 네트워크보안
- 프로그래밍
- 웹개발
- 딥러닝
- 소프트웨어
- 컴퓨터비전
- 알고리즘
- 보안
- 네트워크
- 머신러닝
- Today
- Total
목록"머신러닝" (3)
스택큐힙리스트
중첩된 JSON의 출력 스키마를 정의하는 권장 방법은 무엇인가요? 내가 사용하는 방법은 이상하게 느껴집니다. # planner에 추가 -> from langchain.experimental.plan_and_execute import load_chat_planner # 설계 응답 스키마 정의 refinement_response_schemas = [ ResponseSchema(name=plan, description={'1': {'step': '','tools': [],'data_sources': [],'sub_steps_needed': bool}, '2': {'step': '','tools': [],'data_sources': [], 'sub_steps_needed': bool},}),] # 설명에서 JS..
만약에 DataFrame 없이 case class로부터 StructType (즉, DataFrame.schema)를 생성하고 싶다면 어떻게 해야 하나요? 쉽게 다음을 할 수 있습니다: case class TestCase(id: Long) val schema = Seq[TestCase]().toDF.schema 하지만 스키마만 필요한데 실제로 DataFrame을 생성하는 것은 비효율적인 것 같습니다. SQLContext.createDataFrame와 같은 방식으로 수행할 수 있습니다: import org.apache.spark.sql.catalyst.ScalaReflection val schema = ScalaReflection.schemaFor[TestCase].dataType.asInstanceOf[S..
나는 https://github.com/databricks/spark-csv를 사용하고 있습니다. 단일 CSV를 작성하려고 시도하고 있지만, 폴더를 만들고 있습니다. 경로와 파일 이름과 같은 매개변수를 받아 해당 CSV 파일을 작성하는 스칼라 함수가 필요합니다.답변 1파일을 만드는 중입니다. 각 파티션은 개별적으로 저장되기 때문에 여러 파일이 들어있는 폴더가 생성됩니다. 하나의 출력 파일 (여전히 폴더 안에 있는)이 필요한 경우 repartition을 사용할 수 있습니다(상위 스트림 데이터가 큰 경우에 권장되며 셔플이 필요합니다): df .repartition(1) .write.format(com.databricks.spark.csv) .option(header, true) .save(mydata.csv..