HUE を使用する
- 印刷する
- PDF
HUE を使用する
- 印刷する
- PDF
Article Summary
Share feedback
Thanks for sharing your feedback!
Classic環境で利用できます。
HUEはCore Hadoop、Spark、Prestoクラスタタイプで使用可能なコンポーネントです。
このガイドでは、Cloud HadoopクラスタでのHUEの機能とHUEでのHiveエディタ、HUEブラウザの使用方法を説明します。
HUEの構成要素
HUE(Hadoop User Experience)は、Apache Hadoopクラスタとともに使用されるウェブ基盤のユーザーインターフェースです。
HUEは、他のHadoopエコシステムと一緒にグループ化され、Hive作業やSpark Jobなどを実行できます。
Cloud HadoopクラスタのHUEは、以下の構成要素をサポートします。
ブラウザ
- 文書:HUEで保存したワークフロー(Workflow)、クエリ、スクリプトファイルを見ることができる
- ファイル:HDFSに保存されたファイルを見ることができる
- S3:Object Storageバケットに保存されたファイルを見ることができる
- テーブル:Hive Warehouseに保存されたテーブルを見ることができる
- Job:実行したOozie Jobの状態とログを見ることができる
エディタ
- Hive:Hiveクエリを実行できる
- Scala、PySpark:
spark-shell
のようにインタラクティブな構文を実行できる - Spark Submit Jar、Spark:それぞれ.jar、.pyファイルをSpark Jobとして送信できる
- Java:Oozieワークフローを通じて.jarを実行できる
- Distcp:Oozieワークフローを通じてDistcp作業を実行できる
- Shell:Oozieワークフローを通じて.shファイルを実行できる
- MapReduce:MapReduceアプリケーションをOozieワークフローを通じて実行できる
スケジューラ
- Workflow:Oozieワークフローを作成できる
- 予約:作成したワークフローをスケジューリングできる
HUEアクセス
HUEはCore HadoopタイプとSparkタイプ、Prestoタイプにインストールされ、以下の2つの方法でアクセスできます。
コンソールのウェブUIリストを介したアクセス
Cloud Hadoopコンソールで、アプリケーション別に見るを通じてHUEウェブUIにアクセスできます。 詳細内容は、アプリケーション別に見るをご参照ください。
ドメインによるアクセス
ドメインを用いてHUEウェブUIにアクセスする方法は、以下のとおりです。
- NAVERクラウドプラットフォームコンソールにアクセスします。
- PlatformメニューのClassicをクリックしてClassic環境に変更します。
- Services > Big Data & Analytics > Cloud Hadoopメニューを順にクリックします。
- 確認するクラスタ項目をクリックすると表示される詳細情報画面で、Publicドメインアドレスを確認します。
- ウェブブラウザのアドレスバーに以下のようにPublicドメインアドレスとポート番号を入力し、HUEウェブページにアクセスします。
http://{Publicドメイン}:8000
- ブラウザにログインページが表示されたら、クラスタの作成時に設定した管理者アカウントとパスワードを入力してログインします。
- コンソールでクラスタ管理者のアカウントを初期化しても、HUEアカウントの情報は初期化されません。 パスワードは、HUEのウェブページで変更する必要があります。
Hiveクエリの実行
Hiveクエリを実行する方法は以下のとおりです。
- [クエリ] ボタンのをクリックし、**エディタ > Hive(Hive UI)**をクリックしてエディタを実行します。
- 編集画面でクエリを実行するデータベースをリストから選択します。
- クエリエディタ画面にクエリを入力し、 [実行] ボタンをクリックします。
- 結果タブで、実行したクエリの結果が確認できます。
- クエリ記録タブで、実行したクエリリストが確認できます。
ブラウザによる照会
上部のメニューバーで左側のメニューアイコンをクリックし、ブラウザ領域で希望するブラウザをクリックします。
ファイルブラウザ
- HDFSファイルの照会
- HDFSの基本ディレクトリアドレス:
hdfs://user/アカウント名
- アカウント名の前かrootのスラッシュをクリックすると、移動できる
- [新規作成] :新しいファイルやディレクトリを作成
- [アップロード] :現在のディレクトリにファイルをアップロード
S3ブラウザ
- ユーザーのAPI Access Key IDで認証できるすべてのバケットを照会
- S3の基本ディレクトリアドレス:
s3a://バケット名
- rootのスラッシュをクリックすると、移動できる
- [新規作成] :新しいファイルやディレクトリを作成
- [アップロード] :現在のディレクトリにファイルをアップロード
テーブルブラウザ
- Hiveで作成したデータベースとテーブルを照会
- Hiveで作成したデータベースとテーブルを照会
参考
HUEのScala、PySpark、Spark Submit Jar、Sparkエディタはクラスタ作成時にクラスタタイプをSparkに選択すると使用できます。 他のクラスタタイプで使用するには、Scalaの公式サイトでダウンロード及びインストールしてから使用してください。
この記事は役に立ちましたか?