HUE を使用する
    • PDF

    HUE を使用する

    • PDF

    Article Summary

    VPC環境で利用できます。

    NAVERクラウドプラットフォームのCloud Hadoopでは、Hueコンポーネントを使用できます。
    このガイドでは、Cloud HadoopクラスタでのHUEの機能とHUEでのHiveエディタ、HUEブラウザの使用方法を説明します。

    HUEの構成要素

    HUE(Hadoop User Experience)は、Apache Hadoopクラスタとともに使用されるWebベースのユーザーインターフェースです。
    HUEは、他のHadoopエコシステムと一緒にグループ化され、Hive作業やSpark Jobなどを実行できます。

    Cloud HadoopクラスタのHUEは、以下の構成要素をサポートします。

    • ブラウザ

      • 文書:HUEで保存されたWorkflow、クエリ、スクリプトファイルを見ることができる
      • ファイル:HDFSに保存されたファイルを見ることができる
      • S3:Object Storageバケットに保存されたファイルを見ることができる
      • テーブル:Hive Warehouseに保存されたテーブルを見ることができる
      • Job:実行したOozie Jobの状態とログを見ることができる
    • エディタ

      • Hive:Hiveクエリを実行できる
      • Scala、PySparkspark-shellのようにインタラクティブな構文を実行できる
      • Spark Submit Jar、Spark:それぞれ.jar、.pyファイルをSpark Jobとして送信できる
      • Java:Oozie Workflowを通じて.jarを実行できる
      • Distcp:Distcp作業をOozie Workflowを通じて実行できる
      • Shell:.shファイルをOozie Workflowを通じて実行できる
      • MapReduce:Oozie Workflowを通じてMapReduceアプリケーションを実行できる
    • スケジューラ

      • Workflow:Oozie Workflowを作成できる
      • 予約:作成したWorkflowをスケジューリングできる

    HUEアクセス

    HUEはCore HadoopとSpark Typeにデフォルトでインストールされ、以下の2つの方法でアクセスできます。

    コンソールのウェブUIリストを介したアクセス

    Cloud Hadoopコンソールで、アプリケーション別に見るを通じてHUEウェブUIにアクセスできます。詳細内容は、アプリケーション別に見るをご参照ください。

    ドメインによるアクセス

    ドメインを用いてHUEウェブUIにアクセスする方法は、以下のとおりです。

    1. NAVERクラウドプラットフォームコンソールにアクセスします。
    2. PlatformメニューのVPCをクリックしてVPC環境に変更します。
    3. Services > Big Data & Analytics > Cloud Hadoopメニューを順にクリックします。
    4. 確認するクラスタ項目をクリックすると表示される詳細情報画面で、ドメインにあるドメインアドレスを確認します。
      cloudhadoop-clusterlist-domein_ja
    5. ウェブブラウザのアドレスバーに以下のようにグローバルIPアドレスとポート番号を入力し、HUEウェブページを開きます。
      https://{ドメインアドレス}:8081
      
    6. ブラウザにログインページが表示されたら、クラスタの作成時に設定した管理者アカウントとパスワードを入力してログインします。
      • コンソールでクラスタ管理者のアカウントを初期化しても、HUEアカウントの情報は初期化されません。パスワードは、HUEのウェブページで変更できます。

    Hiveクエリの実行

    Hiveクエリを実行する方法は以下のとおりです。

    1. 左側のメニューバーから cloudhadoop-hue-icon > Hive(Hive UI) をクリックしてエディタを起動します。
    2. 編集画面でクエリを実行するデータベースをリストから選択します。
    3. クエリエディタ画面にクエリを入力し、[実行] ボタンをクリックします。
      • [結果] タブで、実行したクエリの結果が確認できます。
      • [クエリ記録] タブで、実行したクエリリストが確認できます。
        cloudhadoop-hue1_ja

    ブラウザによる照会

    上部のメニューバーで左側のメニューアイコンをクリックし、ブラウザ領域で希望するブラウザをクリックします。

    • ファイルブラウザ
      • HDFSファイルの照会
      • HDFSの基本ディレクトリアドレス:hdfs://user/アカウント名
      • アカウント名の前かrootのスラッシュをクリックすると、移動できる
      • [新規作成]:新しいファイルやディレクトリを作成
      • [アップロード]:現在のディレクトリにファイルをアップロード
        cloudhadoop-hue2_ja
    参考

    Unauthorized connection for super-user: rootエラーが発生した場合、Ambari UI > HDFS > CONFIGS > ADVANCED > Custom core-siteで以下の値を*に変更してサービスを再起動してください。

    • hadoop.proxyuser.root.groups
    • hadoop.proxyuser.root.hosts
    • S3ブラウザ

      • ユーザーのAPI Access Keyで認証できるすべてのバケットを照会
      • S3の基本ディレクトリアドレス:s3a://バケット名
      • rootのスラッシュをクリックすると、移動できる
      • [新規作成]:新しいファイルやディレクトリを作成
      • [アップロード]:現在のディレクトリにファイルをアップロード
        cloudhadoop-hue3_ja
    • テーブルブラウザ

      • Hiveで作成したデータベースとテーブルを照会
        cloudhadoop-hue4_ja

    この記事は役に立ちましたか?

    Changing your password will log you out immediately. Use the new password to log back in.
    First name must have atleast 2 characters. Numbers and special characters are not allowed.
    Last name must have atleast 1 characters. Numbers and special characters are not allowed.
    Enter a valid email
    Enter a valid password
    Your profile has been successfully updated.