コードを見る

Prev Next

Classic/VPC環境で利用できます。

チューニングメニューでユーザーが実行したタスクのコードを確認する方法と、既存のテストアプリ情報を確認する方法をご案内します。

コードを見る

チューニングで実行したタスクに対するコードを確認する方法は、次の通りです。

  1. NAVERクラウドプラットフォームコンソールで、 i_menu > Services > AI Services > CLOVA Studio メニューを順にクリックします。
  2. My Product メニューで [CLOVA Studioに移動する] ボタンをクリックします。
  3. 画面左側の チューニング メニューをクリックします。
  4. コードを確認するタスクの [コードを見る] ボタンをクリックします。
  5. コードを見るのウィンドウで APIリクエスト情報を確認します。
    clovastudio-playground-viewsource_ja.png
    • APIに関する詳細は、CLOVA Studio APIガイドをご参照ください。
    • コードタイプは、 curlpython が提供されます。
    • [コピー] ボタンをクリックすると、API情報をクリップボードにコピーできます。
    • 使用中のモデルによって、コードを見るのウィンドウに表示されるコード構造が異なる場合があります。
    • AI Filterの使用有無を設定し、AI Filterガイドを確認できます。
    • タスクを保存した後、 [コードを見る] ボタンをクリックすると、より正確なコード情報が得られます。
参考
  • 既存のテストアプリの API情報を再確認するには、画面左側の APIキー > [Deprecated] タブをクリックします。
  • テストアプリを作成することなく、すぐにサービスアプリを申し込むことができます。サービスアプリの申し込みに関する詳細は、サービスアプリの申し込みをご参照ください。

AI Filter

NAVER AI倫理ガイド倫理ガイド遵守の観点で、ユーザーは AI Filter機能を設定できます。AI Filterは、サービスアプリで悪口など不適切な結果が出力されることを検出してユーザーに通知する機能です。

現在、AI Filterは悪口など不適切な表現に対する分析結果を提供し、内容から感知された危険度に応じて0から2の間のラベルを付与します。各ラベルについての説明は、次の通りです。

ラベル 説明
0 テキスト内に悪口などの不適切な表現が含まれる可能性が高い
1 テキスト内に悪口などの不適切な表現が含まれる可能性がある
2 テキスト内に悪口などの不適切な表現が含まれる可能性が低い

ユーザーは AI Filter分析結果を基に内容の危険度を下げるために、適切な対応策を用意する必要があります。例えば、結果に対する AI Filterのレスポンスが0の場合、エンドユーザーにその結果を返せないことを知らせ、新しく入力することを提案した方がより安全です。ただし、AI Filterはリスクを検知することに集中したモデルであるため誤検知が発生することがあり、持続的に変化する環境要素(法律、新造語、文脈上の意味、社会変化による単語および文章などの意味変化、特定単語に対する任意の意味付与など)によってリスク検知が難しいこともあるため、完璧な安全装置にはなれません。悪口などの不適切な出力が懸念される場合は、AI Filterを使用して適切な対応策を用意するだけでなく、入力するプロンプトを設計する段階から注意を払う必要があります。

注意

AI Filterの制限事項は、次の通りです。

  • AI Filterは、リクエストされるテキストを最大500文字に制限します。500文字以上のテキストは正常に分析できません。
  • リクエストされるテキスト内に不正な形式、絵文字と記号などが多い場合、正しく分析できないことがあります。