HUE を使用する
- 印刷する
- PDF
HUE を使用する
- 印刷する
- PDF
Article Summary
Share feedback
Thanks for sharing your feedback!
VPC環境で利用できます。
NAVERクラウドプラットフォームのCloud Hadoopでは、Hueコンポーネントを使用できます。
このガイドでは、Cloud HadoopクラスタでのHUEの機能とHUEでのHiveエディタ、HUEブラウザの使用方法を説明します。
HUEの構成要素
HUE(Hadoop User Experience)は、Apache Hadoopクラスタとともに使用されるWebベースのユーザーインターフェースです。
HUEは、他のHadoopエコシステムと一緒にグループ化され、Hive作業やSpark Jobなどを実行できます。
Cloud HadoopクラスタのHUEは、以下の構成要素をサポートします。
ブラウザ
- 文書:HUEで保存されたWorkflow、クエリ、スクリプトファイルを見ることができる
- ファイル:HDFSに保存されたファイルを見ることができる
- S3:Object Storageバケットに保存されたファイルを見ることができる
- テーブル:Hive Warehouseに保存されたテーブルを見ることができる
- Job:実行したOozie Jobの状態とログを見ることができる
エディタ
- Hive:Hiveクエリを実行できる
- Scala、PySpark:
spark-shell
のようにインタラクティブな構文を実行できる - Spark Submit Jar、Spark:それぞれ.jar、.pyファイルをSpark Jobとして送信できる
- Java:Oozie Workflowを通じて.jarを実行できる
- Distcp:Distcp作業をOozie Workflowを通じて実行できる
- Shell:.shファイルをOozie Workflowを通じて実行できる
- MapReduce:Oozie Workflowを通じてMapReduceアプリケーションを実行できる
スケジューラ
- Workflow:Oozie Workflowを作成できる
- 予約:作成したWorkflowをスケジューリングできる
HUEアクセス
HUEはCore HadoopとSpark Typeにデフォルトでインストールされ、以下の2つの方法でアクセスできます。
コンソールのウェブUIリストを介したアクセス
Cloud Hadoopコンソールで、アプリケーション別に見るを通じてHUEウェブUIにアクセスできます。詳細内容は、アプリケーション別に見るをご参照ください。
ドメインによるアクセス
ドメインを用いてHUEウェブUIにアクセスする方法は、以下のとおりです。
- NAVERクラウドプラットフォームコンソールにアクセスします。
- PlatformメニューのVPCをクリックしてVPC環境に変更します。
- Services > Big Data & Analytics > Cloud Hadoopメニューを順にクリックします。
- 確認するクラスタ項目をクリックすると表示される詳細情報画面で、ドメインにあるドメインアドレスを確認します。
- ウェブブラウザのアドレスバーに以下のようにグローバルIPアドレスとポート番号を入力し、HUEウェブページを開きます。
https://{ドメインアドレス}:8081
- ブラウザにログインページが表示されたら、クラスタの作成時に設定した管理者アカウントとパスワードを入力してログインします。
- コンソールでクラスタ管理者のアカウントを初期化しても、HUEアカウントの情報は初期化されません。パスワードは、HUEのウェブページで変更できます。
Hiveクエリの実行
Hiveクエリを実行する方法は以下のとおりです。
- 左側のメニューバーから > Hive(Hive UI) をクリックしてエディタを起動します。
- 編集画面でクエリを実行するデータベースをリストから選択します。
- クエリエディタ画面にクエリを入力し、[実行] ボタンをクリックします。
- [結果] タブで、実行したクエリの結果が確認できます。
- [クエリ記録] タブで、実行したクエリリストが確認できます。
ブラウザによる照会
上部のメニューバーで左側のメニューアイコンをクリックし、ブラウザ領域で希望するブラウザをクリックします。
- ファイルブラウザ
- HDFSファイルの照会
- HDFSの基本ディレクトリアドレス:
hdfs://user/アカウント名
- アカウント名の前かrootのスラッシュをクリックすると、移動できる
- [新規作成]:新しいファイルやディレクトリを作成
- [アップロード]:現在のディレクトリにファイルをアップロード
参考
Unauthorized connection for super-user: rootエラーが発生した場合、Ambari UI > HDFS > CONFIGS > ADVANCED > Custom core-siteで以下の値を*
に変更してサービスを再起動してください。
- hadoop.proxyuser.root.groups
- hadoop.proxyuser.root.hosts
S3ブラウザ
- ユーザーのAPI Access Keyで認証できるすべてのバケットを照会
- S3の基本ディレクトリアドレス:
s3a://バケット名
- rootのスラッシュをクリックすると、移動できる
- [新規作成]:新しいファイルやディレクトリを作成
- [アップロード]:現在のディレクトリにファイルをアップロード
テーブルブラウザ
- Hiveで作成したデータベースとテーブルを照会
- Hiveで作成したデータベースとテーブルを照会
この記事は役に立ちましたか?