Google cloud BigData là gì?

Giải pháp về google cloud big data được tạo ra để phục vụ cho việc chuyển đổi của doanh nghiệp muốn tập trung vào phân tích dữ liệu.

Các tính toán phân tích được tính phí dựa trên việc sử dụng, người sử dụng không cần chi trả tiền để duy trì máy chủ và các thứ khác.

Apache Hadoop là một nền tảng mã nguồn mở dành cho bigdata.
Apache Hadoop dựa trên mô hình lập trình MapReduce do Google phát triển. Mô hình Mapreduce bạn có thể tra và tham khảo thêm bằng google để có cái nhìn tổng quan hơn về bài viết này.

Thuật ngữ Hadoop thường sử dụng không chỉ để nói về Apache Hadoop mà nó còn bao gồm các thành phần liên quan: Apache Spark, Apache Pig và Apache Hive.

Cloud Dataproc là cách nhanh chóng, dễ dàng, được quản lý để chạy Hadoop, Spark, Hive và Pig trên Google Cloud Platform. Tất cả bạn phải làm là yêu cầu một cụm Hadoop (Hadoop cluster). Chi phí được tính toán dựa trên thời gian bạn sử dụng, nếu bạn ngừng sử dụng đồng nghĩa với việc bán sẽ không phải mất thêm bất cứ khoảng chi phí nào nữa. Việc này sẽ giúp tiết kiệm chi phí theo ước tính khoảng hơn 80% đối với việc sử dụng trên máy chủ truyền thống.

Nguồn: Bài viết được dịch từ Google cloud Architecture

Bạn có thể tham khảo khóa học này tại link sau: https://www.coursera.org/specializations/gcp-architecture


Đăng nhận xét

0 Nhận xét