| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 |
- 데이터분석
- 사이버보안
- 데이터구조
- springboot
- I'm Sorry
- 컴퓨터비전
- 자바스크립트
- 보안
- 디자인패턴
- Yes
- 웹개발
- 머신러닝
- 인공지능
- 프로그래밍
- 네트워크
- 자료구조
- 버전관리
- 클라우드컴퓨팅
- 딥러닝
- 알고리즘
- 소프트웨어공학
- 데이터과학
- 컴퓨터과학
- 컴퓨터공학
- 프로그래밍언어
- 파이썬
- 데이터베이스
- 네트워크보안
- 빅데이터
- 소프트웨어
- Today
- Total
목록2023/11 (336)
스택큐힙리스트
스파크의 cache()와 persist()의 RDD 영속성 측면에서 차이점은 무엇인가요?답변 1cache()를 사용하면 기본 저장 수준인 다음과 같은 것만 사용합니다 : RDD를 위해 MEMORY_ONLY Dataset을 위해 MEMORY_AND_DISK persist()를 사용하면 RDD와 Dataset 모두에 대해 원하는 저장 수준을 지정할 수 있습니다. 공식 문서에서는 다음과 같이 설명하고 있습니다: persist() 또는 cache() 메소드를 사용하여 RDD를 저장하도록 표시할 수 있습니다. 각 저장된 RDD는 다른 storage level을 사용하여 저장할 수 있습니다. cache() 메소드는 기본 저장 수준인 StorageLevel.MEMORY_ONLY (수명 주기 내에 직렬화된 객체를 메모..
우리의 새로운 REST API에 JWT 기반 인증을 구현하고 싶습니다. 하지만 토큰에 유효기간이 설정되어 있기 때문에 자동으로 연장할 수 있을까요? 사용자가 일정 기간 동안 애플리케이션을 활발하게 사용 중이라면 X 분마다 로그인해야하는 경우를 원하지 않습니다. 그렇게 된다면 사용자 경험에 큰 실패가 발생합니다. 하지만 만료 기간을 연장하면 새로운 토큰이 생성됩니다 (그리고 이전 토큰은 만료될 때까지 여전히 유효합니다). 그리고 각 요청 후에 새로운 토큰을 생성하는 것은 나에게 어리석게 들립니다. 동일한 시간에 여러 토큰이 유효한 보안 문제처럼 들립니다. 물론 검정 목록을 사용하여 이전에 사용된 토큰을 무효화 할 수는 있지만, 토큰을 저장해야합니다. 그리고 JWT의 이점 중 하나는 저장이 없다는 것입니다...
JavaSparkContext spark = new JavaSparkContext( new SparkConf().setJars(...).setSparkHome....); JavaRDD file = spark.textFile(hdfs://...); // 단계1 JavaRDD words = file.flatMap(new FlatMapFunction() { public Iterable call(String s) { return Arrays.asList(s.split( )); } }); // 단계2 JavaPairRDD pairs = words.map(new PairFunction() { public Tuple2 call(String s) { return new Tuple2(s, 1); } }); // 단계3 ..
스파크 커맨드: /Library/Java/JavaVirtualMachines/jdk1.8.0_05.jdk/Contents/Home/bin/java -cp :/root/spark-1.0.1-bin-hadoop2/conf:/root/spark-1.0.1-bin-hadoop2/conf:/root/spark-1.0.1-bin-hadoop2/lib/spark-assembly-1.0.1-hadoop2.2.0.jar:/root/spark-1.0.1-bin-hadoop2/lib/datanucleus-api-jdo-3.2.1.jar:/root/spark-1.0.1-bin-hadoop2/lib/datanucleus-core-3.2.2.jar:/root/spark-1.0.1-bin-hadoop2/lib/datanucleus..