반응형
Notice
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 딥러닝
- 데이터분석
- 데이터구조
- 자바스크립트
- 2
- 프로그래밍
- 컴퓨터비전
- 파이썬
- 웹개발
- 보안
- 버전관리
- 빅데이터
- 데이터과학
- 소프트웨어
- 컴퓨터공학
- 인공지능
- 컴퓨터과학
- Yes
- 프로그래밍언어
- 코딩
- 클라우드컴퓨팅
- I'm Sorry
- 소프트웨어공학
- 머신러닝
- 네트워크보안
- 네트워크
- 자료구조
- 사이버보안
- 알고리즘
- 데이터베이스
Archives
- Today
- Total
목록b트리 (1)
스택큐힙리스트
MongoDB는 파일 저장소로 사용됩니다.
저는 대용량 파일을 위한 확장 가능한 저장소를 생성하는 가장 좋은 솔루션을 찾고 있습니다. 파일의 크기는 1MB에서 500-600GB까지 다양할 수 있습니다. 하둡(Hadoop)과 그의 HDFS에 대해 몇 가지 정보를 찾았는데, Map/Reduce 작업이나 다른 많은 기능이 필요하지 않기 때문에 약간 복잡해 보입니다. 지금은 몽고디비(MongoDB)와 그의 GridFS를 파일 저장소로 사용하기로 생각하고 있습니다. 그리고 이제 질문들입니다: 동시에 몇 개의 파일을 쓰려고 할 때 GridFS에 어떤 일이 발생할까요? 읽기/쓰기 작업에 대한 잠금(Lock)이 있을까요? (저는 파일 저장소로만 사용할 예정입니다) GridFS에서 파일은 RAM에 캐시될까요? 그리고 이것이 읽기/쓰기 성능에 어떤 영향을 미칠까요..
카테고리 없음
2023. 11. 2. 18:17