| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | |||||
| 3 | 4 | 5 | 6 | 7 | 8 | 9 |
| 10 | 11 | 12 | 13 | 14 | 15 | 16 |
| 17 | 18 | 19 | 20 | 21 | 22 | 23 |
| 24 | 25 | 26 | 27 | 28 | 29 | 30 |
| 31 |
- 디자인패턴
- 사이버보안
- 자료구조
- 인공지능
- Yes
- 클라우드컴퓨팅
- 파이썬
- 소프트웨어
- 컴퓨터과학
- 데이터분석
- 자바스크립트
- 웹개발
- 소프트웨어공학
- I'm Sorry
- 보안
- 프로그래밍
- 빅데이터
- 버전관리
- 네트워크보안
- 컴퓨터비전
- 컴퓨터공학
- 데이터베이스
- 알고리즘
- 프로그래밍언어
- 머신러닝
- 데이터구조
- 데이터과학
- 네트워크
- springboot
- 딥러닝
- Today
- Total
목록2023/12/01 (15)
스택큐힙리스트
제가 자주 마주치는 C 헤더 파일들 중에는 실제 함수가 없고 extern C 가드만 있는 경우가 있습니다. 예를 들면: /* b_ptrdiff.h - base type ptrdiff_t definition header */ #ifndef __INCb_ptrdiff_th #define __INCb_ptrdiff_th #ifdef __cplusplus extern C { #endif #ifndef _PTRDIFF_T #define _PTRDIFF_T typedef long ptrdiff_t; #endif /* _PTRDIFF_T */ #ifdef __cplusplus } #endif #endif /* __INCb_ptrdiff_th */ extern C가 함수에 대해서 이름 맹글링을 방지한다는 것은 알고 있..
Spark는 리듀스 작업의 수를 계산하기 위해 어떤 공식을 사용하나요? 저는 몇 개의 Spark-sql 쿼리를 실행하고 있는데, 리듀스 작업의 수는 항상 200입니다. 이러한 쿼리의 맵 작업 수는 154입니다. 저는 Spark 1.4.1을 사용하고 있습니다. 이것은 기본적으로 200으로 설정된 spark.shuffle.sort.bypassMergeThreshold와 관련이 있나요?답변 1당신이 원하는 것은 spark.sql.shuffle.partitions 입니다. Spark SQL 성능 튜닝 가이드에 따르면: | 속성 이름 | 기본값 | 의미 | +-----------------------------+-------+----------------------------------------------+ |..
저는 Authorization HTTP 헤더 유형으로 가장 적절한 것이 무엇인지 궁금합니다. JWT 토큰에 대해요. 아마도 가장 인기 있는 타입 중 하나는 Basic입니다. 예를 들면: Authorization: Basic QWxhZGRpbjpvcGVuIHNlc2FtZQ== 이 헤더는 로그인과 비밀번호와 같은 두 가지 매개변수를 처리합니다. 그래서 JWT 토큰에는 관련이 없습니다. 또한, Bearer 타입에 대해 들어봤습니다. 예를 들면: Authorization: Bearer eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJzdWIiOiIxMjM0NTY3ODkwIiwibmFtZSI6IkpvaG4gRG9lIiwiYWRtaW4iOnRydWV9.TJVA95OrM7E2cBab30RMHr..
Spårk 데이크로그램 리사오 플레인트를 코드레임화 가상들링 실행선 참아를 분석하기 가이드랍니다. 대상을 구현하여 상식을 기존하는 역수이는 리사오 3.0을 구족한다. PySpark에서, 4분적의 개인에 테이블 일참 작업하기 가능리 구현을 거현합니다. # 메소드 1: describe() 완료 float(df.describe(A).filter(summary = 'max').select(A).first().asDict()['A']) # 메소드 2: SQL ..