4 lần chinh phục chứng chỉ Professional Cloud Architect Certification

4 lần chinh phục chứng chỉ Professional Cloud Architect Certification

Professional Cloud Architect Certification 2023


Professional Cloud Architect Certification 2019

Hòa mình vào mùa thi cử của các em sinh viên và các bạn học sinh mình cũng xin chia sẻ trải nghiệm 4 lần đi thi 1 chứng chỉ Professional Cloud Architect Certification của mình 

Lần 1: 03/01/2019 - Kết quả trượt

👉 Bối cảnh lịch sử: là sinh viên năm cuối chân ướt chân ráo đang đi thực tập tại 1 công ty partner của Google Cloud. Bằng tất cả kiến thức về 3 Giải tích và 2 vật lý mình tự tin xung phong đi thi và kết quả nằm trong tầm tay đó là trượt.

Kinh nghiệm rút ra: Không nên tin dump trên các trang mạng và đặc biệt không được tin vào đáp án trong đó, cần ôn luyện nhiều hơn, thực hành trên labs nhiều để hiểu bản chất. Đã cố nhớ các nội dung trong đề thi để về tra cứu lại

Thi trượt lần 1 sau 2 tuần được thi lại. Ok! đã tra cứu các câu đã nhớ và sẵn sàng thi lại lần 2 

Chi phí lần 1: 250$ - Công ty chi trả (thời này chưa có voucher hay giảm giá gì cả)

Lần 2: 28/02/2019 - Kết quả trượt

👉 Bối cảnh lịch sử: Tự tin đã học lại và ôn các câu đã gặp trong lần thi trước. Nhưng đập vào mắt là 1 bộ đề hoàn toàn mới và chả có tý gì giống với bộ đề trước ngoại trừ các nội dung tương tự như lần 1. Kết quả tạch lần 2.

Kinh nghiệm rút ra: Mỗi lần thi sẽ là bộ đề hoàn toàn độc lập. Thi xong chỉ đề Pass/Fail nên rất khó đối chiếu với những người cùng thi. Khó khăn xuất hiện nếu thi trượt lần 2 thì sau 2 tháng sẽ được thi lại và nếu trượt lần 3 thì 1 năm sau mới được thi nữa.

Chi phí lần 2: 250$ - Công ty chi trả (Cầm thẻ sếp điền mà giờ áy náy quá). Lương thực tập còn chả bằng tiền đi thi :(

Retake Policy
    - If you don't pass an exam, you can take it again 14 days after the date of your exam. If you don't pass a second time, you must wait 60 days before you can take it a third time. If you don't pass the third time, you must wait a year before taking it again. 

Lần 3: 24/12/2019 - Kết quả đỗ

👉 Bối cảnh lịch sử: Sau 2 lần báo nhà cụ thể là 500$ thì nhiều lúc mình đã suy nghĩ nên từ bỏ nhưng với bản tính cay cú thường xuyên đập bàn phím tại các quán net cỏ tại phố Lê Thanh Nghị thì tôi đã quay trở lại đường đua.

Rút kinh nghiệm mình đã học bài bản các khóa học từ Causera, Linux Academy, Udemy. Thực hành tất cả các bài labs liên quan trên Qwicklabs (Bây giờ đã đổi tên thành Cloud Skills Boost).

Trao đổi với các anh em trong team từ phân tích các câu hỏi từ dump, cùng nhau học và phân tích các bài học và labs, làm dự án để có thêm kiến thức.

Trong lúc không biết kiếm đâu ra tiền để đi thi thì mình đã biết đến GDG Cloud Hanoi nơi tổ chức sự kiện StudyJam (Tiền thân của quán quân GCP). Tại đây mình đã dành được voucher 100% cho kì thi và vét được cơ số quà mang về.


Email thông báo có voucher 2019

Hình thù voucher để các bạn dễ hình dung


Voucher thi + Google home mini + 1 android mô hình + 2 áo.


Chi phí lần 3: 0$ - Mình nói thật cái cảm giác ai cũng nghĩ là bạn thi trượt và khi quay về bạn lại đỗ chắc trong cuộc đời chỉ gặp có 1 lần duy nhất mà thôi (thực ra mình có 2 lần =)) ). 

Và từ đó mình gia nhập GDG Cloud Hanoi và ngồi đây viết bài chia sẻ này cho mọi người

Lần 4: 26/04/2023 - Kết quả đỗ 

👉 Bối cảnh lịch sử: Do hết hạn chứng chỉ và mình cần phải gia hạn để làm cơ số việc tại Google Cloud Partner nên mình cần chuẩn bị và thi lại

Chứng chỉ đầy duyên nợ nên việc chuẩn bị kĩ lưỡng là cần thiết. Mọi người nên học trước tình huống của 4 casestudy để khi vào phòng thi không mất quá nhiều thời gian để tra cứu. Các bạn có thể xem tất cả các nội dung ôn tập cần phải chuẩn bị ở đương link: https://cloud.google.com/learn/certification/cloud-architect 

Làm labs: https://www.cloudskillsboost.google/journeys/12 

Tham gia cái hội nhóm để tìm các bài chia sẻ kinh nghiệm thi: GDG Cloud HanoiGoogle Cloud User Group Vietnam (Google Workspace + GCP)

Đọc các bài chia sẻ trên Linkedin, Medium,....

Github link tài liệu tổng hợp: https://github.com/sathishvj/awesome-gcp-certifications 

Chi tiết các mốc thời gian thi

Kết bài:
Đỗ hay trượt là chuyện thường tình
Thua ở đâu gấp đôi ở đó
Khi chán nản hãy nghĩ tại sao mình lại bắt đầu

👉Road to Google Developers Certification - Google Cloud sự kiện đang diễn ra để lấy voucher thi miễn phí


👉Google I/O Extended Cloud Hanoi 2023 sự kiện vào cuối tháng 7 offline để gặp gỡ và trao đổi tại Hanoi

=======================================================================

KEY NOTE Professional Cloud Architect Certification 2023.


Casestudy
👉 JencoMart (Đã bỏ) -> nên đọc để tham khảo
👉 Dress4Win (Đã bỏ) -> nên đọc để tham khảo
👉 Helicopter Racing League (HRL)
Encrypt the card data with a deterministic algorithm stored in Firestore using Datastore mode.
Security-policy
Configure the deployment job to notify a Pub/Sub queue that triggers a Cloud Function.
Explainable AI.
BigQuery for its scalability and ability
The gcloud recommender command
👉EHR Healthcare
Binary Authorization on GKE
Container Registry to use vulnerability scanning
Dedicated Interconnect connection.
Pub/Sub message batching.
Organizational Policy
Private cluster with a private endpoint
👉Mountkirk Games
Google Kubernetes Registry, Google Container Engine, Google HTTP(S) Load Balancer
Verify that the project quota
Project for development, a second for staging and a third for production
Cloud Dataflow, Cloud Storage, Cloud Pub/Sub, and BigQuery
Global load balancer with managed instance groups
Cloud Bigtable for time series data, use Cloud Spanner for transactional data, and use BigQuery for
historical data queries.
Cloud Bigtable
L7 load balancer/L4 load balancer.
Gsutil to batch copy the files in parallel.
service account (SA) + Firebase Admin role
Organizational policy
Anthos
Configure Workload Identity and service accounts
Firebase Test Lab
👉TerramEarth
App Engine with Google Cloud Endpoints.
OAuth-compatible access control
Google Cloud Pub/Sub
Capacity planning, TCO calculations, opex/capex allocation
Multi-Regional Storage bucket
snapshots
GCS Coldline bucket
BigQuery time-partitioned table
Cloud Storage lifecycle rule with Age
BigQuery. Use table partitioning.
Cloud Dataprep
BigQuery as the data warehouse + Cloud Pub/Sub and Cloud Dataflow + Google Data Studio for analysis
Cloud IoT Core with public/private key pairs
Deploy Cloud Run services to multiple regions + HTTP(S) Load Balancing
Cloud Monitoring uptime check
Trigger in Cloud Build
Transfer Appliances from Google Cloud

=============================
👉Section 1: Designing and planning a cloud solution architecture
Define their requirements and assess viable logging tools
Lifecycle management rule in JSON
Stackdriver Monitoring for all Projects, and export to Google Cloud Storage
Secret management system
Google Kubernetes Engine, Jenkins, and Helm
A single Organization with Folders for each department
Provide training to the team about service cost management.
Use Jenkins to monitor tags in the repository. Deploy staging tags to a staging environment for testing. After testing, tag the repository for production and deploy that to the production environment.
GKE and GCP provide the tools you need to build a PCI DSS-compliant environment.
Upload your files into Cloud Storage. Use Cloud Dataprep to explore and clean your data
Define a design for the security of data in your web application that meets GDPR requirements.
Allocate budget for team training. Create a roadmap for your team to achieve Google Cloud certification based on job role.
HIPAA-compliant
Cloud Storage and use lifecycle management
Cron service provided by App Engine
Cloud Pub/Sub to Cloud Dataflow
Use Cloud Scheduler to trigger a Cloud Function
Create a Dataproc cluster using preemptible worker instances.
Create a Debian-based Compute Engine instance, install and configure the application, and use OS patch management to install available updates.
Cloud Run and Cloud Bigtable
Export logs to a Pub/Sub topic, and trigger Cloud Function with the relevant log events.
Create a Google Group per department and add all department members to their respective groups. Create a folder per department and grant the respective group the required IAM permissions at the folder level. Add the projects under the respective folders.
Configure binary authorization policies for the development, staging, and production clusters. Create
attestations as part of the continuous integration pipeline.
Meet with the cloud operations team and the engineer to discuss load balancer options
Create a separate Google Cloud project to use for the load-testing environment
Instrument the load-testing tool and the target services with detailed logging and metrics collection
Use source code security analyzers as part of the CI/CD pipeline + Run a vulnerability security scanner as part of your continuous-integration /continuous-delivery (CI/CD) pipeline
Create a Dataflow pipeline to retrieve the data from the external sources. As part of the pipeline, use the
Cloud Data Loss Prevention (Cloud DLP) API to remove any PII data. Store the result in BigQuery.
1. Install a Cloud Logging agent on all instances. 2. Create a sink to export logs into a regional Cloud
Storage bucket. 3. Create an Object Lifecycle rule to move files into a Coldline Cloud Storage bucket after one month. 4. Configure a retention policy at the bucket level using bucket lock.
👉Section 2: Managing and provisioning a solution infrastructure
Compute engine
Kubernetes - HorizontalPodAutoscaler
Cloud Run - traffic percentage
Google BigQuery - tables time-partitioned - StatefulSets
Cloud SQL - Binary logging + Automated backups
Stackdriver Debugger
NoSQL
Cloud Pub/Sub
Firewall rule
Load balancer health checks
Google Cloud Dataflow
Google Cloud Dataproc
Stackdriver Trace
Stackdriver logs
Cloud Audit Logging
Google Cloud Bigtable
Google Cloud Dedicated Interconnect
Google Cloud Storage
Cloud VPN - overlap with the range - Cloud Router - Cloud NAT
Cloud VPN Gateway
Datastore create-indexes
Memcache + Cloud Datastore
Compute Engine instance groups - HTTP load balancing
App Engine flexible environment / App Engine standard environment + Cloud VPN to limit access
Transfer Appliance
Kubectl cmd
BigQuery jobUser / BigQuery dataViewer
Cloud Functions
Key object for each Entity and run a batch
.boto configuration file + gsutil cmd
Dashboard in Stackdriver Monitoring Console
Google Cloud Directory Sync + Cloud identities
Deployment Manager to automate service provisioning.
Multi-Regional Cloud Storage buckets.
Cloud Scheduler
OS patch management
Cloud Filestore
Service Mesh visualization
Create a Cloud Build trigger
Shared VPC
Cloud Key Management Service (KMS)
Configure serverless VPC access.
Install Anthos Service Mesh on your cluster.
Configure VPC Service Controls and configure Private Google Access.
Google Compute Engine managed instance groups with auto-scaling
Object Versioning
👉Section 3: Designing for security and compliance
Service account
Authentication via SAML 2.0
Identity Provider
Tokenizer service and store
Use public key infrastructure (PKI)
Egress rule with priority
Organization Policy with a constraint on constraints/compute.vmExternalIpAccess.
VPC Service Controls
Configure Identity-Aware Proxy (IAP)
Org viewer, project viewer
👉Section 4: Analyzing and optimizing technical and business processes
Use the - -no-auto-delete flag
Google BigQuery billing export and labels
Backoff strategy.
GKE cluster to use Cloud Operations + GKE Monitoring dashboard
Gsutil -m to enable multi-threaded copy.
👉Section 5: Managing implementation
Separate backend pools for each API path behind the load balancer
Test and staging environments
Add tags to each tier and set up firewall rules
De-identify the data with the Cloud Data Loss Prevention API
Custom image + instance template + autoscaled managed instance group
Firewall rules based on network tags attached
HTTPS load balancer with URL Maps.
Create a retention policy on the bucket
Use a versioning strategy for the APIs
Mount a Local SSD volume
Set up a network peering between vpc-a and vpc-b.
👉Section 6: Ensuring solution and operations reliability
Green-blue deployment model
Fragment the monolithic platform into microservices
Resize2fs command
Dynamically resize the SSD persistent disk
Health check for the instance group.
Cloud SQL instance with high availability enabled.
Failover replica instance
Configure liveness and readiness probes in the Pod specification.
An HA Cloud VPN gateway connected with two tunnels to an on-premises VPN gateway

=========================================================================

Hy vọng bài viết đem lại động lực cho bạn!

Mọi thắc mắc về nội dung bài viết này các bạn có thể liên hệ qua:
Tiktok: @huydanggdg
Gmail: dangduchuygdg@gmail

❤ Cảm ơn các bạn đã đọc bài viết của mình ❤




Đăng nhận xét

0 Nhận xét