목록네트워크 (402)
스택큐힙리스트
클로저 밖에서 함수를 호출할 때 이상한 동작을 얻습니다: 함수가 객체 안에 있을 때는 모든 것이 작동합니다 함수가 클래스 안에 있을 때는 다음과 같이 됩니다: 작업이 직렬화될 수 없음: java.io.NotSerializableException: testing 문제는 코드를 개체(object)가 아닌 클래스에 넣어야 한다는 것입니다. 이런 일이 일어나는 이유가 무엇인지 아시나요? 스칼라 객체는 직렬화되나요 (기본적으로?)? 다음은 작동하는 코드 예제입니다: object working extends App { val list = List(1,2,3) val rddList = Spark.ctx.parallelize(list) // 클로저 밖에서 함수 호출 val after = rddList.map(someF..
어떤 분은 map과 flatMap의 차이점과 각각의 좋은 사용 사례에 대해 설명해 주실 수 있나요? 결과를 평탄화하다라는 것은 무엇을 의미하며, 이것은 어떻게 유용한가요?답변 1한 줄마다 여러 단어가 있고 여러 줄이 있지만, 하나의 출력 배열로 끝난다는 것을 알 수 있습니다. flatMapping을 통해 라인의 컬렉션에서 단어의 컬렉션으로 변환하는 것을 보여주기 위해 다음과 같습니다: [aa bb cc, , dd] => [[aa,bb,cc],[],[dd]] => [aa,bb,cc,dd] 따라서 입력 및 출력 RDD는 일반적으로 flatMap에 대해 서로 다른 크기를 가집니다. 만약 우리의 split 함수와 함께 map을 사용하려고 했다면 중첩된 구조로 끝났을 것입니다 (타입이 RDD[Array[Strin..
저는 JWT 토큰 기반 보안 구현을 테스트하고 있습니다. 이는 다음 기사를 기반으로 합니다. 저는 테스트 서버로부터 토큰을 성공적으로 받았습니다. 그러나 Chrome POSTMAN REST Client 프로그램에서 토큰을 헤더에 보내는 방법을 찾을 수 없습니다. 제 질문은 다음과 같습니다: 1) 제가 올바른 헤더 이름 또는 POSTMAN 인터페이스를 사용하고 있나요? 2) 토큰을 Base64로 인코딩해야 하나요? 그냥 토큰을 보낼 수 있다고 생각했습니다.답변 1요청 헤더 이름은 Authorization을 사용하십시오. 토큰 앞에 Bearer를 넣으십시오. 저는 이렇게 시도해보고 제대로 작동합니다. Authorization: Bearer 토큰_문자열 JWT의 각 부분은 base64url로 인코딩된 값입니다..
저는 Apache Spark 클러스터를 구성하고 있습니다. 1개의 마스터와 3개의 슬레이브로 클러스터를 실행할 때, 마스터 모니터 페이지에서 다음과 같이 표시됩니다: 메모리 2.0 GB (512.0 MB 사용 중) 2.0 GB (512.0 MB 사용 중) 6.0 GB (512.0 MB 사용 중) 저는 작업자들의 사용 중인 메모리를 늘리고 싶지만, 이에 대한 올바른 설정을 찾지 못했습니다. 다음과 같이 spark-env.sh를 변경했습니다: export SPARK_WORKER_MEMORY=6g export SPARK_MEM=6g export SPARK_DAEMON_MEMORY=6g export SPARK_JAVA_OPTS=-Dspark.executor.memory=6g export JAVA_OPTS=-Xm..