일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 소프트웨어
- 보안
- 사이버보안
- 데이터베이스
- 머신러닝
- Yes
- 자료구조
- 데이터분석
- 웹개발
- I'm Sorry
- 컴퓨터과학
- 코딩
- 프로그래밍
- 인공지능
- 데이터구조
- 프로그래밍언어
- 딥러닝
- 자바스크립트
- 컴퓨터비전
- 네트워크보안
- 버전관리
- 데이터과학
- 네트워크
- 컴퓨터공학
- 소프트웨어공학
- 클라우드컴퓨팅
- 알고리즘
- 2
- 빅데이터
- 파이썬
- Today
- Total
목록네트워크보안 (42)
스택큐힙리스트
저는 ADAL 라이브러리를 사용하여 리소스에 대한 액세스 토큰을 가져오고 있습니다. 만료 시간의 형식이 무엇인지 아는 사람이 있나요? 더 정확히 말하면 exp (만료 시간) 클레임입니다. JwtSecurityToken 클래스는 간단히 파싱 한 후 int32 값을 반환합니다. 따라서 그것은 좋은 지표가 아닙니다. TimeSpan 및 DateTime으로 변환해 보았지만 값들은 90 분 차이가 나지 않습니다. 거의 같습니다. 이것은 iat 및 exp 클레임에 대해 fiddler로부터 받은 내용입니다 (토큰을 파싱하기 위해 https://jwt.io/를 사용했습니다). iat: 1475874457 exp: 1475878357 값들은 그렇게 크게 차이하지 않습니다.답변 1RFC 7519에 따르면 exp, nbf,..
로컬 머신 터미널에서 클러스터로 Spark 앱을 제출하려고 하고 있습니다. --master yarn-cluster를 사용하고 있습니다. 앱을 제출하는 머신이 아닌 클러스터에서 드라이버 프로그램을 실행해야합니다. 로컬 머신에 있는 애플리케이션 jar 파일의 경로를 제공할 때, spark-submit은 자동으로 클러스터에 업로드하나요? 다음과 같이 사용하고 있습니다. bin/spark-submit --class com.my.application.XApp --master yarn-cluster --executor-memory 100m --num-executors 50 /Users/nish1013/proj1/target/x-service-1.0.0-201512141101-assembly.jar 1000 에러 메..
나는 쿠키 기반 인증을 알고 있다. SSL과 HttpOnly 플래그를 적용하여 쿠키 기반 인증을 MITM과 XSS로부터 보호할 수 있다. 그러나 CSRF로부터 보호하기 위해서는 추가적인 특별한 조치가 필요하다. 그것들은 좀 복잡하다. (참고) 최근에, 나는 JSON Web Token (JWT)이 인증에 대한 해결책으로 꽤 핫하다는 것을 발견했다. JWT의 인코딩, 디코딩 및 검증에 대한 내용을 알고 있다. 그러나 어떤 웹사이트/튜토리얼에서는 JWT를 사용한다면 CSRF 보호가 필요하지 않다고 얘기하는 이유를 이해하지 못한다. 나는 많이 읽어보고 아래의 문제를 요약하려고 노력했다. JWT에 대한 큰 그림을 제공하고, 나의 JWT에 대한 오해를 명확히 해주길 원한다. JWT가 쿠키에 저장되어 있다면, 서버는..
스파크 커맨드: /Library/Java/JavaVirtualMachines/jdk1.8.0_05.jdk/Contents/Home/bin/java -cp :/root/spark-1.0.1-bin-hadoop2/conf:/root/spark-1.0.1-bin-hadoop2/conf:/root/spark-1.0.1-bin-hadoop2/lib/spark-assembly-1.0.1-hadoop2.2.0.jar:/root/spark-1.0.1-bin-hadoop2/lib/datanucleus-api-jdo-3.2.1.jar:/root/spark-1.0.1-bin-hadoop2/lib/datanucleus-core-3.2.2.jar:/root/spark-1.0.1-bin-hadoop2/lib/datanucleus..