| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | |||||
| 3 | 4 | 5 | 6 | 7 | 8 | 9 |
| 10 | 11 | 12 | 13 | 14 | 15 | 16 |
| 17 | 18 | 19 | 20 | 21 | 22 | 23 |
| 24 | 25 | 26 | 27 | 28 | 29 | 30 |
| 31 |
- 소프트웨어공학
- 인공지능
- 네트워크보안
- I'm Sorry
- 사이버보안
- 버전관리
- 데이터베이스
- 자바스크립트
- 데이터구조
- 머신러닝
- 프로그래밍
- 컴퓨터과학
- 딥러닝
- Yes
- 파이썬
- 프로그래밍언어
- 보안
- 알고리즘
- 데이터과학
- 자료구조
- 데이터분석
- springboot
- 디자인패턴
- 웹개발
- 컴퓨터비전
- 네트워크
- 클라우드컴퓨팅
- 소프트웨어
- 컴퓨터공학
- 빅데이터
- Today
- Total
목록2023/12 (270)
스택큐힙리스트
나는 문자열로 된 열이 있는 데이터프레임이 있습니다. PySpark에서 열 유형을 Double 유형으로 변경하고 싶습니다. 다음은 내가 한 방법입니다: toDoublefunc = UserDefinedFunction(lambda x: x,DoubleType()) changedTypedf = joindf.withColumn(label,toDoublefunc(joindf['show'])) 그냥 알고 싶은 건, 이게 올바른 방법인가요? 로지스틱 회귀를 실행하면 오류가 발생해서 궁금합니다. 이게 문제가 될 수 있을까요?답변 1from pyspark.sql import types for t in ['BinaryType', 'BooleanType', 'ByteType', 'DateType', 'DecimalType'..
에러가 발생하고 있습니다. line = ''.join(line.split()) TypeError: sequence item 0: expected str instance, bytes found 이 코드는 파이썬 2.x 버전에서는 잘 작동하지만, 3.4 버전에서는 작동하지 않고 있습니다. 이에 대한 적절한 해결책을 제시해주세요.답변 1그러나 이 경우에는 바이트 객체를 다루기 때문에 str 관련 메서드를 사용할 수 없습니다. 바이트 객체 자체에는 join() 메서드가 있으며 str.join과 동일한 방식으로 사용할 수 있습니다. 또는 io.BytesIO를 사용하거나 bytearray 객체를 사용하여 인플레이스 연결을 수행할 수도 있습니다. 문서에서 언급한대로 bytearray 객체는 가변이며 효율적인 과다할당..
Spark와 Hadoop 사이에는 의존성이 있나요? 아니라면, Hadoop 없이 Spark를 실행할 때 놓치게 되는 기능은 있나요?답변 1스파크는 하둡 없이 실행할 수 있지만, 그 중 일부 기능은 하둡의 코드에 의존합니다 (예: Parquet 파일 처리). 메소스와 S3에서 스파크를 실행하고 있으며, 설정하는 것은 약간 까다로웠지만 한 번 설정하면 정말 잘 작동합니다 (정확한 설정 방법에 대한 요약은 여기에서 확인할 수 있습니다). (편집) 참고: 2.3.0 버전부터 스파크는 쿠버네티스에 대한 기본 지원도 추가되었습니다.답변 2아파치 스파크는 하둡 없이 사용할 수 있나요? 아파치 스파크는 분산 데이터 처리를 위한 인기있는 오픈 소스 프레임워크입니다. 많은 사람들이 스파크를 하둡과 함께 사용하는 것을 보통..
브라우저 화면에서 이 오류가 발생하는 이유는 무엇인가요, : 자바 게이트웨이 프로세스가 드라이버에게 포트 번호를 전송하기 전에 종료되었습니다 args = ('자바 게이트웨이 프로세스가 드라이버에게 포트 번호를 전송하기 전에 종료되었습니다',) 메시지 = '자바 게이트웨이 프로세스가 드라이버에게 포트 번호를 전송하기 전에 종료되었습니다' 이유는, #!/Python27/python print Content-type: text/html; charset=utf-8 print # 디버깅 가능하도록 설정 import cgitb cgitb.enable() import os import sys # Spark 소스 폴더 경로 os.environ['SPARK_HOME'] = C:\Apache\spark-1.4.1 # py..