| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 |
- 소프트웨어
- 데이터베이스
- 보안
- I'm Sorry
- 소프트웨어공학
- 알고리즘
- 사이버보안
- 데이터과학
- 클라우드컴퓨팅
- 딥러닝
- springboot
- 프로그래밍언어
- Yes
- 네트워크
- 웹개발
- 컴퓨터과학
- 컴퓨터비전
- 네트워크보안
- 디자인패턴
- 데이터분석
- 파이썬
- 프로그래밍
- 버전관리
- 빅데이터
- 자료구조
- 인공지능
- 머신러닝
- 자바스크립트
- 데이터구조
- 컴퓨터공학
- Today
- Total
목록2023/11/03 (15)
스택큐힙리스트
저는 380만 개의 행과 한 개의 열이있는 판다스 데이터프레임을 가지고 있으며, 이들을 인덱스별로 그룹화하려고합니다. 인덱스는 고객 ID입니다. 인덱스별로 qty_liter를 그룹화하려고합니다: df = df.groupby(df.index).sum() 그러나 연산을 완료하는 데에 시간이 오래 걸립니다. 매우 큰 데이터 세트를 다루는 대체 방법이 있나요? 다음은 df.info()입니다: Index: 3842595 entries, -2147153165 to \N Data columns (total 1 columns): qty_liter object dtypes: object(1) memory usage: 58.6+ MB 데이터는 다음과 같습니다: 답변 1문제는 데이터가 숫자가 아니기 때문입니다. 문자열을 처..
저는 쿠버네티스에 nginx를 배포하려고 시도하고 있습니다. 쿠버네티스 버전은 v1.5.2입니다. 3개의 레플리카로 nginx를 배포했으며, 아래는 YAML 파일입니다, apiVersion: extensions/v1beta1 kind: Deployment metadata: name: deployment-example spec: replicas: 3 revisionHistoryLimit: 2 template: metadata: labels: app: nginx spec: containers: - name: nginx image: nginx:1.10 ports: - containerPort: 80 그리고 이제 해당 노드의 포트 80을 포트 30062에 노출시키고자 합니다. 그를 위해 아래 서비스를 생성했습니..
쿠버네티스가 내 로컬 환경(MacBook에 설치된 minikube)과 Google의 컨테이너 엔진(GCE, Google Cloud의 쿠버네티스)에서 잘 작동하고 있습니다. 로컬 환경에서 YAML 파일을 개발하고 테스트하고, 완료되면 이를 GCE에서 시도합니다. 현재는 각 환경에서 개별적으로 작업해야 합니다. 로컬 환경에서 YAML 파일을 편집하고 준비가 되면 해당 파일을 GCE 환경으로 (git을 사용하여) 복제하고 사용/배포합니다. 이는 다소 번거로운 과정입니다. 이상적으로는, MacBook에서 kubectl을 사용하여 로컬 minikube 또는 GCE Kubernetes 환경 간에 쉽게 전환하고 YAML 파일이 사용되는 위치를 쉽게 확인할 수 있도록 하고 싶습니다. 이를 위해 컨텍스트를 간단히 전환할..
AWS-CLI를 사용하여 S3의 빈 디렉토리에 데이터를 동기화 할 때 거의 즉시 완료됩니다. 그러나 수백만 개의 폴더가 있는 큰 디렉토리에 대해 동기화를 수행하는 경우 파일을 업로드/동기화하기 전에 매우 오랜 시간이 소요됩니다. 대안적인 방법이 있을까요? S3 디렉토리의 모든 파일을 고려하려는 것 같아 동기화하기 전에 사전에 체크하지 않고 데이터를 업로드하는 것도 좋을 것 같습니다.답변 1 sync 명령은 버킷에 있는 모든 파일을 열거하여 로컬 파일이 이미 버킷에 있는지 여부와 로컬 파일과 동일한지 여부를 확인해야합니다. 버킷에 있는 문서가 많을수록 시간이 오래 걸릴 것입니다. 이러한 sync 동작이 필요하지 않다면 다음과 같이 재귀적으로 복사하는 명령을 사용하십시오: aws s3 cp --recursi..