Hue を使用する

Prev Next

Classic環境で利用できます。

Hueは Core Hadoop, Spark, Prestoクラスタ Typeで使用可能なコンポーネントです。
本ガイドでは、Cloud Hadoopクラスタでの Hueの機能や Hueでの Hiveエディタ、Hueブラウザの使用方法について説明します。

Hueの構成要素

Hadoop User Experience(Hue)は、Apache Hadoopクラスタと共に使用されるウェブベースのユーザーインターフェースです。
Hueは他の Hadoopエコシステムと一緒にグループ化され、Hiveタスクと Spark Jobなどを実行できます。

Cloud Hadoopクラスタの Hueは、以下の構成要素をサポートします。

  • ブラウザ

    • ドキュメント: Hueで保存したワークフロー(Workflow)、クエリ、スクリプトファイルを閲覧可能
    • ファイル: HDFSに保存されたファイルを閲覧可能
    • S3: Object Storageバケットに保存されたファイルを閲覧可能
    • テーブル: Hive warehouseに保存されたテーブルを閲覧可能
    • Job: 実行した Oozie Jobのステータス、ログを閲覧可能
  • エディタ

    • Hive: Hiveクエリを実行可能
    • Scala、PySpark: spark-shellのようにインタラクティブな構文を実行可能
    • Spark Submit Jar、Spark: jar、pyファイルをそれぞれ Spark Jobとして提出可能
    • Java: Oozieワークフローを通じて jarを実行可能
    • Distcp: Oozieワークフローを通じて Distcpタスクを実行可能
    • Shell: Oozieワークフローを通じて.shファイルを実行可能
    • MapReduce: MapReduceアプリケーションを Oozieワークフローを通じて実行可能
  • スケジューラ

    • Workflow: Oozieワークフローを作成可能
    • 予約: 作成したワークフローをスケジューリング可能

Hueアクセス

Hueは Core Hadoopタイプと Sparkタイプ、Prestoタイプにインストールされ、以下の2つの方法でアクセスできます。

コンソールの Web UIリストを介したアクセス

Cloud Hadoopコンソールで Application別に見るを通じて Hue Web UIにアクセスできます。詳細は、Application別に見るをご参照ください。

ドメインによるアクセス

ドメインを用いて Hue Web UIにアクセスする方法は、次の通りです。

  1. NAVERクラウドプラットフォームコンソールで、Services > Big Data & Analytics > Cloud Hadoopメニューを順にクリックします。
  2. 確認するクラスタ項目をクリックすると表示される詳細情報画面で、Publicドメインアドレスを確認します。
    chadoop-3-1-01_C_ko
  3. ウェブブラウザのアドレスバーに以下のように Publicドメインアドレスとポート番号を入力し、Hueウェブページにアクセスします。
    http://{Publicドメイン}:8000
    
  4. ブラウザにログインページが表示されたら、クラスタの作成時に設定した管理者アカウントとパスワードを入力してログインします。
    • コンソールでクラスタ管理者のアカウントを初期化しても、Hueアカウントの情報は初期化されません。パスワードは、Hueのウェブページで変更する必要があります。

Hiveクエリ実行

Hiveクエリを実行する方法は、次の通りです。

  1. [クエリ] ボタンの cloudhadoop-hue-C-iconをクリックした後、エディタ > Hive(Hive UI) をクリックしてエディタを実行します。
  2. 編集画面でクエリを実行するデータベースをリストから選択します。
  3. クエリ Editor画面にクエリを入力し、 [実行] ボタンをクリックします。
    • 結果タブで、実行したクエリの結果を確認できます。
    • クエリ記録タブで、実行したクエリリストを確認できます。
      chadoop-4-3-005_ko

ブラウザ照会

上部のメニューバーで左側のメニューアイコンをクリックし、ブラウザ領域で希望するブラウザをクリックします。

  • ファイルブラウザ

    • HDFSファイル照会
    • hdfsの基本ディレクトリアドレス:hdfs://user/アカウント名
    • アカウント名の先頭や rootのスラッシュをクリックすると移動可能
    • [新規作成] : 新しいファイルやディレクトリを作成
    • [アップロード] : 現在のディレクトリにファイルをアップロード
      chadoop-4-3-008_ko
  • S3ブラウザ

    • ユーザーの API Access Key IDで認証できるすべてのバケットを照会
    • S3の基本ディレクトリアドレス:s3a://バケット名
    • rootのスラッシュをクリックすると移動可能
    • [新規作成] : 新しいファイルやディレクトリを作成
    • [アップロード] : 現在のディレクトリにファイルをアップロード
      chadoop-4-3-009_ko
  • テーブルブラウザ

    • Hiveで作成したデータベースとテーブルを照会
      chadoop-4-3-013_ko
参考

Hueの ScalaPySparkSpark Submit JarSparkエディタは、クラスタ作成時にクラスタ Typeを Sparkに選択することで利用できるようになります。他のクラスタ Typeで使用するには、Scalaホームページでダウンロードおよびインストールしてからご利用ください。