목록AWS (51)
가끔 보자, 하늘.
(* 아래 내용은 https://www.youtube.com/@jocoding 채널을 보면서 기록해두면 좋을만한 내용을 정리했습니다. 아래는 단편적인 내용이라 가급적 해당 강의를 보시는게 이해하는데 도움이 되실겁니다. 강추!! 입니다.)https://supabase.com/docs/reference/cli/introduction Supabase DocsSupabase is the Postgres development platform providing all the backend features you need to build a product.supabase.com위 링크 주고 회원가입, 로그인 구현해달라고 하면 됨. 끝!!!...은 아니고 project 직접 만들고 project url, publish..
TOKEN(REST API 전용, 레거시)장점: 단순. Authorization 헤더(Bearer 토큰)만 받아 검증.단점: 헤더/쿼리/경로 등 다른 컨텍스트 미제공, 정규식/캐시 설정에 민감.REQUEST(REST/HTTP API 공통, 권장)장점: headers, queryString, pathParameters 등 전체 요청 컨텍스트 제공. Identity sources를 여러 개 지정해 캐시 키 구성 가능. HTTP API도 이 방식만 지원.단점: 이벤트가 큼. 설정 항목이 더 많음.HTTP API(v2)는 TOKEN 타입이 없음. Lambda authorizer는 REQUEST 형태만 지원.만약 HTTP API인데 TOKEN처럼 가정하면 동작 불가. 위 옵션을 활성화해야 “API Gateway..
액세스 제어 관련 속성은 Amazon Cognito Identity Pool의 ABAC(Attribute-Based Access Control) 기능입니다.액세스 제어 관련 속성이란?사용자의 속성(attributes)을 기반으로 AWS 리소스에 대한 접근 권한을 세밀하게 제어하는 기능입니다.작동 원리:속성 매핑: 사용자 토큰의 속성을 IAM 정책의 태그로 매핑세션 태그: 사용자 세션에 태그를 자동으로 할당조건부 접근: IAM 정책에서 이 태그들을 조건으로 사용하여 접근 제어사용 사례:1. 부서별 접근 제어// 사용자 토큰에서 department 속성을 추출 { "department": "legal", "clearance": "confidential" } // IAM 정책에서 조건 사용 { "Eff..
간혹 오래된 OS의 서비스를 유지보수 하다보면 root ca가 오래되어 도메인을 못찾는 경우가 발생합니다. AWS 기준으로 업데이트 및 확인하는 방법을 아래 정리하니 참고 바랍니다. # 간단히 ca 최신 파일을 다운로드하는 방법을 나열합니다. > sudo yum update -y ca-certificates> curl -o /tmp/AmazonRootCA1.pem https://www.amazontrust.com/repository/AmazonRootCA1.pem> sudo cp /tmp/AmazonRootCA1.pem /etc/pki/ca-trust/source/anchors/> sudo update-ca-trust extract# 사용하려는 도메인으로 접속가능한지는 다음과 같이 확인이 가능합니다. >..
https://www.youtube.com/watch?v=M7yfLD-Wb6wveo3, notebookLM으로 만들어본 영상입니다. 직접 찍기는 힘들고 AI로 만들어 보기 위해 샘플로 만들어 보았습니다. iMovie로 대충 붙여놓기만 했네요 ^^a 글보다는 간단히 들을 수 있으니 좋긴한데 텍스트로 같이 정리하면 더 좋을 듯 하긴 하네요.다음에는 정리된 글과 함께 영상을 좀 더 깔끔하게 만들어 보겠습니다.
링크만 올려둡니다. 안보신 분들 있으면 쭉 둘러보세요. :) https://kr-resources.awscloud.com/aws-reinvent-recap-kr-on-demand?trk=f4745311-27bb-4169-b1ce-8ffde15f86e7&sc_channel=em&mkt_tok=MTEyLVRaTS03NjYAAAGRAS0aC5kj-YbmBiOWKw04Kyk43FUATL4MR5fr00EdzFWlXT6XXf_EWDCQLzQhHyHpSPypqLt_hueayOYsvaibloe13njO1DLEuMMCH6WIdjYcmgk
Data pipeline 을 AWS로 마이그레이션 하려고 관련 제품들을 살펴보는 중입니다. 기존 프로세스를 어떻게 AWS로 가져올지를 검토하기 위해 알아볼 겸 간단히 정리해 보겠습니다. 현재는 각종 서비스의 데이터를 가져오기 위해 시기에 따라 제작하여 운영해오고 있었기 때문에 서비스 별로 서로 다른 pipeline을 사용하고 있습니다. 예를들어 데이터 수집을 위한 (1) 전용 api server를 만들고, (2) 데이터 손실 방지를 위해 redis에 일정 기간 저장/백업 후 자동 삭제, (3) 이를 logstash로 정기적으로 가져와 (4) Elasticsearch에 저장, 다시 이를 (5) DW에 가공하여 저장, 일부는 실시간 지표 확인을 위해 (6) S3에 저장, 모바일/웹에서 (7) 뷰어를 제공해 ..
예전에 중요한 데이터가 있을때는 (라떼는... -_-;) CD로 백업을 했더랬지 말입니다. 하지만 그걸 복구하는건 요원한 일이 되어가고 있네요. 그래서 최근 중요 데이터를 S3에 백업하며 겪었던 내용들을 간단히 정리했습니다. 1. 기본 옵션 설정 AWS 웹 콘솔에서 S3로 가 버킷을 생성할 때 공식 문서(https://aws.amazon.com/ko/getting-started/hands-on/getting-started-using-amazon-s3-glacier-storage-classes/)에는 잠금 설정, 버전 관리 활성화 등의 옵션에 대한 언급이 있으나 필수 옵션은 아닙니다. 하지만 덮어쓰기, 실수로 삭제되는 휴먼에러에 대응하기 위해서는 꼭 필요한 옵션입니다. 또한 버킷 생성 시 잠금 설정을 하지..