VPC環境で利用できます。
Data Forestの利用シナリオを説明します。
Step 1. アカウント作成
- NAVERクラウドプラットフォームコンソールの VPC環境で、
> Services > Big Data & Analytics > Data Forestメニューを順にクリックします。 - Accounts で [アカウント作成] ボタンをクリックします。
- アカウント名に「df-test」と入力してアカウントのパスワードを入力し、 [作成] ボタンをクリックします。
参考
- アカウントを作成する方法に関する詳しい説明は、アカウントの作成と管理をご参照ください。
Step 2. アプリ作成
- Data Forest > Apps をクリックし、[App作成] ボタンをクリックします。
- アプリ情報を入力します。
- アカウント名: 「df123」と入力
- アプリのタイプ: 「HUE-4.7.0」を選択
- アプリ名: 「my-hue」と入力
- 稼働時間: 「604800」と入力
- キュー: 「Longlived」を選択

- 基本設定を完了し、 [次へ] ボタンをクリックします。
- 最終確認し、 [作成] ボタンをクリックします。
参考
- アプリを作成する方法に関する詳しい説明は、アプリの作成と管理をご参照ください。
ブラウザでプロキシを設定
Firefoxブラウザでのプロキシ設定
Firefoxブラウザでプロキシを設定する方法は、次の通りです。
- Firefoxブラウザを開きます。
- ブラウザ右上の
> 設定 > ネットワーク設定 > [設定] ボタンをクリックします。 - インターネットプロキシへのアクセス設定 > 手動プロキシ設定 >をクリックします。
- SOCKSホスト情報を入力します。
- SOCKS v5を選択
- SOCKSホスト: 127.0.0.1と入力
- ポート: 9494

- 「パスワードが保存されている場合は認証時に入力を省略する」、「SOCKS v5を使用する時にプロキシ DNS」のチェックボックスをクリックします。
- プロキシの設定が完了すると、 [確認] ボタンをクリックします。
参考
Data Forestサーバにアクセスしない場合、プロキシへのアクセス設定を「No Proxy(プロキシを使用しない)」に変更しないとインターネットを正常に使用できません。
macOSの Chromeブラウザでのプロキシ設定
Macの OSで Chromeブラウザでプロキシを設定する方法は、次の通りです。
cmdで次のコマンドを実行します。
$ /Applications/Google\ Chrome.app/Contents/MacOS/Google\ Chrome --proxy server="socks5://127.0.0.1:9876"
Windowsの Chromeブラウザでのプロキシ設定
Windowsの OSで Chromeブラウザでプロキシを設定する方法は、次の通りです。
- Chromeアイコンを右クリックし、 プロパティ をクリックします。
- Chromeプロパティ画面が表示されたら [ショートカット] タブ > 対象(T) の入力されたテキストの末尾に
--proxy-server="socks5://127.0.0.1:9876"を追加します。
Step 3. Quick linksアクセスの確認
アプリから Quick Linksにアクセスできるかどうかを確認する方法は、次の通りです。
- NAVERクラウドプラットフォームコンソールの VPC環境で、
> Services > Big Data & Analytics > Data Forest > Data Forest > Appsメニューを順にクリックします。 - Hueアプリをクリックして詳細情報領域を開きます。
- アプリの詳細情報領域で Quick links のリンクをクリックします。
- 正常にアクセスされたか確認します。
- 正常にアクセスされるとトンネリングが完了したことを意味し、HUEアプリを通じて HDFSのファイルを管理できます。
参考
Quick linksに関する詳細は、Quick linksアクセスをご参照ください。
Step 4. Zeppelin、HiveServerアプリの連携
Apache Zeppelin、Apache HiveServerアプリを連携する方法は、次の通りです。
- 「HIVESERVER2-LDAP-3.1.0」、「DEV-1.0.0」、「ZEPPELIN-0.10.1」アプリを作成します。
- 作成した Zeppelinアプリをクリックし、 Quick links の zeppelin URLにアクセスします。

- アカウント名と、そのアカウントの作成時に入力したパスワードを入力してログインします。
- 画面右上のアカウントをクリックし、 Interpreter をクリックします。

- JDBCインタープリターを検索します。

- 画面右上の [edit] ボタンをクリックします。

- 以下のように Propertiesに hive.password 項目を追加します。
- Hive.driver: JDBC driverクラスパス(org.apache.hive.jdbc.HiveDriver)を入力
- hive.password: ログインしたアカウントのパスワードを入力
- hive.proxy.user.property: hive.server2.proxy.userを入力
- hive.splitQueries: trueを入力
- hive.url: Hiveserver2-ldapアプリ作成時に提供される JDBC connection string Exampleを入力
- アカウントの作成時に設定したパスワードに特殊文字が含まれている場合、urlエンコードで置換してから入力
- hive.user: アカウント名(df-test)を入力
- Dependencies > artifact 項目に
/usr/hdp/current/hive-client/jdbc/hive-jdbc-3.1.0.3.1.0.0-78-standalone.jarを入力します。

- [Save] ボタンをクリックします。
- 作成されたコードと同様に、Data Forestで作成した Hive DBとテーブルの読み取りと書き込みを行えるステータスになります。

Step 5. アプリ削除
使用しなくなったアプリは削除できます。 アプリを削除する方法は、次の通りです。
- NAVERクラウドプラットフォームコンソールの VPC環境で、
> Services > Big Data & Analytics > Data Forest > Data Forest > Appsメニューを順にクリックします。 - アプリリストで削除したいアプリを選択し、 [終了] ボタンをクリックします。
- 終了した(Finished)アプリを選択し、 [削除] ボタンをクリックします。
Step 6. アカウント削除
使用しなくなったアカウントは削除できます。 アカウントを削除する方法は、次の通りです。
- NAVERクラウドプラットフォームコンソールの VPC環境で、
> Services > Big Data & Analytics > Data Forest > Accounts メニューを順にクリックします。 - 削除したいアカウントを選択し、 [削除] ボタンをクリックします。