VPC環境で利用できます。
Cloud Hadoopサービスは NAVERクラウドプラットフォームコンソールで Cloud Hadoopクラスタを作成するとご利用が申し込まれます。クラスタノードにアクセスするためにネットワーク、ファイアウォール、ストレージの設定もコンソールで行います。今後提供されるサービスごとの各 Web UIにアクセスし、各種データを分析できます。
Cloud Hadoopサービスの全体利用シナリオをまとめると、次の通りです。
-
Cloud Hadoop作成管理: コンソール
- サーバイメージとサーバタイプを選択してサーバを作成
- このステップに関するご利用ガイドページ
-
VPC、Subnet、ACG、SSL VPN設定: コンソール
- ネットワークアクセスを制御するために VPC、Subnet、ACG、SSL VPNの設定を行う
- このステップに関するご利用ガイドページ
-
Cloud Hadoopの使用と管理: コンソール
- クラスタ情報確認
- クラスタ管理(ノード数変更、ノード仕様の変更、管理者パスワードの初期化、設定バックアップ)
- サーバアクセス管理(クラスタの直接アクセス認証キーの変更、認証キー管理)
- アクセス可能な Web UIとアクセスルールを確認し、ショートカットリンクをクリックしてその Web UIにアクセス
- このステップに関するご利用ガイドページ
-
クラスタノードおよび Web UIへのアクセス: PCのターミナルプログラム、ウェブブラウザ
- このステップに関するご利用ガイドページ
-
Web UI を使用する: PCのターミナルプログラム、ウェブブラウザ
- Ambari、Hueなどの基本提供エコシステムのサービス別 Web UIページを使用
- このステップに関するご利用ガイドページ
- Ambari UI
- Ambari REST API を使用する
- Apache Livyで Spark Jobを提出
- Hive を使用する
- Hive UDFを実行
- Hive External Tableに CSVファイルを連携
- Hue を使用する
- MySQL Stored Procedureで DBを作成
- OpenTSDB を使用する
- Presto を使用する
- Prestoで Hive Warehouseデータ分析
- Ranger Pluginでのアクセス制御設定
- Rangerを通じたユーザー別 HDFSアクセス権限管理
- Spark Scala Jobを提出
- Sqoop を使用する
- Zeppelin を使用する
- Iceberg を使用する
- NiFi を使用する
-
外部連携: PCのターミナルプログラム、Web UIおよび各サービスを連携
- Cloud Hadoopアプリケーションと DBを連携して各種データを分析
- このステップに関するご利用ガイドページ
- Apache Flume の連携
- CDB MongoDBから Hiveへのデータ移行
- Cloud Insightで Hadoopモニタリング
- CDB MySQLデータ移行
- Cloud DB for MySQLご利用ガイド
- Cloud Data Streaming Serviceで Presto連携
- Cloud Data Streaming Serviceで Spark Streaming連携
- Cloud Data Streaming Serviceご利用ガイド
- Object Storage + Sub Account の連携
- Object Storageを利用したデータ移行
- Object Storage ご利用ガイド
- Cloud Hadoopに NASマウント
- NAS ご利用ガイド
- Tableau連携
参考
ディレクトリの所有者と権限、ケルベロス認証設定、Hadoop基本 ACL設定、データ暗号化などのセキュリティ configurationは直接設定する必要があります。