| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 |
- 자료구조
- 디자인패턴
- 머신러닝
- 알고리즘
- 파이썬
- springboot
- 보안
- 프로그래밍언어
- 컴퓨터과학
- 네트워크
- 자바스크립트
- 인공지능
- 소프트웨어공학
- 프로그래밍
- 데이터분석
- 클라우드컴퓨팅
- 사이버보안
- Yes
- 빅데이터
- 컴퓨터공학
- 소프트웨어
- 딥러닝
- I'm Sorry
- 데이터과학
- 네트워크보안
- 컴퓨터비전
- 데이터베이스
- 웹개발
- 버전관리
- 데이터구조
- Today
- Total
목록2023/11/28 (15)
스택큐힙리스트
저는 JWT 토큰 기반 보안 구현을 테스트하고 있습니다. 이는 다음 기사를 기반으로 합니다. 저는 테스트 서버로부터 토큰을 성공적으로 받았습니다. 그러나 Chrome POSTMAN REST Client 프로그램에서 토큰을 헤더에 보내는 방법을 찾을 수 없습니다. 제 질문은 다음과 같습니다: 1) 제가 올바른 헤더 이름 또는 POSTMAN 인터페이스를 사용하고 있나요? 2) 토큰을 Base64로 인코딩해야 하나요? 그냥 토큰을 보낼 수 있다고 생각했습니다.답변 1요청 헤더 이름은 Authorization을 사용하십시오. 토큰 앞에 Bearer를 넣으십시오. 저는 이렇게 시도해보고 제대로 작동합니다. Authorization: Bearer 토큰_문자열 JWT의 각 부분은 base64url로 인코딩된 값입니다..
작업은 다음 구성으로 실행되었습니다: --master yarn-client --executor-memory 19G --executor-cores 7 --num-executors 3 (데이터 노드당 실행자 수, 가능한 만큼 사용) --master yarn-client --executor-memory 19G --executor-cores 4 --num-executors 3 (코어 수 감소) --master yarn-client --executor-memory 4G --executor-cores 2 --num-executors 12 (적은 코어, 많은 실행자) 경과 시간: 50분 15초 55분 48초 31분 23초 놀랍게도, (3)이 훨씬 빨랐습니다. (1)은 셔플링 시 상호 실행자 통신이 덜 발생하기 때문에..
저는 Apache Spark 클러스터를 구성하고 있습니다. 1개의 마스터와 3개의 슬레이브로 클러스터를 실행할 때, 마스터 모니터 페이지에서 다음과 같이 표시됩니다: 메모리 2.0 GB (512.0 MB 사용 중) 2.0 GB (512.0 MB 사용 중) 6.0 GB (512.0 MB 사용 중) 저는 작업자들의 사용 중인 메모리를 늘리고 싶지만, 이에 대한 올바른 설정을 찾지 못했습니다. 다음과 같이 spark-env.sh를 변경했습니다: export SPARK_WORKER_MEMORY=6g export SPARK_MEM=6g export SPARK_DAEMON_MEMORY=6g export SPARK_JAVA_OPTS=-Dspark.executor.memory=6g export JAVA_OPTS=-Xm..
나는 hdfs 위치에서 여러 개의 텍스트 파일을 읽고 spark를 사용하여 반복적으로 매핑하고 싶습니다. JavaRDD records = ctx.textFile(args[1], 1);은 한 번에 하나의 파일만 읽을 수 있습니다. 나는 두 개 이상의 파일을 읽고 하나의 RDD로 처리하려고 합니다. 어떻게 해야 할까요?답변 1전체 디렉토리를 지정하거나, 와일드카드를 사용하거나, 디렉토리와 와일드카드의 CSV를 사용할 수 있습니다. 예를 들면: sc.textFile(/내/디렉토리1,/내/경로/파트-00[0-5]*,/다른/디렉토리,/특정/파일) Nick Chammas가 가리키는 바에 따르면 이것은 Hadoop의 FileInputFormat의 노출이므로 Hadoop (및 Scalding)에서도 작동합니다.답변 2..