일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 빅데이터
- 인공지능
- 웹개발
- 머신러닝
- 데이터분석
- 데이터과학
- 데이터베이스
- 자료구조
- 버전관리
- 소프트웨어
- 프로그래밍
- 2
- 클라우드컴퓨팅
- 데이터구조
- 알고리즘
- 컴퓨터공학
- 자바스크립트
- 딥러닝
- 사이버보안
- 네트워크
- 보안
- 코딩
- Yes
- 소프트웨어공학
- I'm Sorry
- 컴퓨터과학
- 네트워크보안
- 프로그래밍언어
- 컴퓨터비전
- 파이썬
- Today
- Total
목록클러스터링 (3)
스택큐힙리스트
나는 3차원 벡터의 큰 세트를 가지고 있습니다. 유클리드 거리를 기반으로 이들을 군집화해야 합니다. 여기서 특정 클러스터 내에 있는 모든 벡터들은 서로의 유클리드 거리가 임계값 T보다 작아야 합니다. 몇 개의 클러스터가 존재하는지 알지 못합니다. 마지막에는 공간 내의 벡터 중 어떠한 클러스터에도 속하지 않는 개별 벡터가 존재할 수 있습니다. 그 이유는 해당 벡터의 유클리드 거리가 공간 내의 어떠한 벡터들과도 T보다 작지 않기 때문입니다. 여기서 사용해야 할 기존 알고리즘 / 접근 방식은 무엇인가요?답변 1이 접근 방식은 다른 군집과 유사성 기준, 즉 거리 임계값을 충족하지 못하는 경우에도 작은(단일 점) 군집을 허용한다는 것에 유의하십시오. 더 나은 성능을 발휘할 수 있는 다른 알고리즘도 있으며, 이는 ..
Spark는 리듀스 작업의 수를 계산하기 위해 어떤 공식을 사용하나요? 저는 몇 개의 Spark-sql 쿼리를 실행하고 있는데, 리듀스 작업의 수는 항상 200입니다. 이러한 쿼리의 맵 작업 수는 154입니다. 저는 Spark 1.4.1을 사용하고 있습니다. 이것은 기본적으로 200으로 설정된 spark.shuffle.sort.bypassMergeThreshold와 관련이 있나요?답변 1당신이 원하는 것은 spark.sql.shuffle.partitions 입니다. Spark SQL 성능 튜닝 가이드에 따르면: | 속성 이름 | 기본값 | 의미 | +-----------------------------+-------+----------------------------------------------+ |..
저는 쿠버네티스에 nginx를 배포하려고 시도하고 있습니다. 쿠버네티스 버전은 v1.5.2입니다. 3개의 레플리카로 nginx를 배포했으며, 아래는 YAML 파일입니다, apiVersion: extensions/v1beta1 kind: Deployment metadata: name: deployment-example spec: replicas: 3 revisionHistoryLimit: 2 template: metadata: labels: app: nginx spec: containers: - name: nginx image: nginx:1.10 ports: - containerPort: 80 그리고 이제 해당 노드의 포트 80을 포트 30062에 노출시키고자 합니다. 그를 위해 아래 서비스를 생성했습니..