일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 데이터과학
- 소프트웨어
- 2
- 코딩
- 데이터베이스
- 인공지능
- 소프트웨어공학
- 데이터분석
- 네트워크
- 컴퓨터공학
- 자료구조
- 파이썬
- 클라우드컴퓨팅
- 사이버보안
- 머신러닝
- 보안
- 빅데이터
- 알고리즘
- 프로그래밍언어
- 딥러닝
- 버전관리
- 프로그래밍
- 네트워크보안
- Yes
- 웹개발
- 자바스크립트
- 컴퓨터비전
- 컴퓨터과학
- I'm Sorry
- 데이터구조
- Today
- Total
목록컴퓨터과학 (276)
스택큐힙리스트
dados
저는 대용량 파일을 위한 확장 가능한 저장소를 생성하는 가장 좋은 솔루션을 찾고 있습니다. 파일의 크기는 1MB에서 500-600GB까지 다양할 수 있습니다. 하둡(Hadoop)과 그의 HDFS에 대해 몇 가지 정보를 찾았는데, Map/Reduce 작업이나 다른 많은 기능이 필요하지 않기 때문에 약간 복잡해 보입니다. 지금은 몽고디비(MongoDB)와 그의 GridFS를 파일 저장소로 사용하기로 생각하고 있습니다. 그리고 이제 질문들입니다: 동시에 몇 개의 파일을 쓰려고 할 때 GridFS에 어떤 일이 발생할까요? 읽기/쓰기 작업에 대한 잠금(Lock)이 있을까요? (저는 파일 저장소로만 사용할 예정입니다) GridFS에서 파일은 RAM에 캐시될까요? 그리고 이것이 읽기/쓰기 성능에 어떤 영향을 미칠까요..
저는 매우 큰 테이블 (3000만 개의 행)을 R의 데이터프레임으로 로드하고 싶습니다. read.table()에는 편리한 기능이 많지만, 구현에는 작업을 느리게 하는 많은 논리가 있는 것 같습니다. 제 경우에는 미리 열의 유형을 알고 있다고 가정하고, 테이블에는 열 제목이나 행 이름이 없으며, 걱정해야 할 병리적인 문자가 없습니다. scan()을 사용하여 테이블을 목록으로 읽는 것이 매우 빠를 수 있다는 것을 알고 있습니다. 예를 들면 다음과 같습니다: datalist
나는 명령으로 pod을 시작했습니다. $ kubectl run busybox \ --image=busybox \ --restart=Never \ --tty \ -i \ --generator=run-pod/v1 문제가 발생했고, 이 Pod을 삭제할 수 없습니다. 아래에 설명된 방법을 사용해보았지만 Pod이 계속 재생성됩니다.$ kubectl delete pods busybox-na3tm pod busybox-na3tm 삭제됨 $ kubectl get pods 이름 준비 상태 상태 재시작 나이 busybox-vlzh3 0/1 컨테이너 생성 중 0 14초 $ kubectl delete pod busybox-vlzh3 --grace-period=0 $ kubectl delete pods --all pod bus..