ChatGPT使い方総まとめ

ChatGPTとは

OpenAIが開発するGPT-3(※)というめちゃくちゃすごい言語モデルをベースとしたチャットアプリです。
色んな質問にすぐ答えてくれます。
この記事ではさまざまな使い方を紹介します。

https://chat.openai.com/

ちなみにGPT-3関連では、noteの以下記事も便利なのでぜひ読んでみてください
AIがコミットメッセージ自動生成!神ツール『auto-commit』『commit-autosuggestions』の紹介

※GPT-3の改良版であるInstructGPTという噂や、更にモデルの変更・タスクの調整を加えたGPT-3.5という噂があります。

ChatGPTの仕組みを考えながらプロンプトを作る手法はこちらに別途まとめています

文章

質問-応答

〜について教えて

Wikipedia風記事作成

〜について説明するWikipedia風の記事を出力して

タスクリスト作成

〜をタスク化して

スケジュール作成

xx〜yyの間にzzします。この間のスケジュールを30分刻みで提示して

要約

以下を要約して

リストからの文章化

以下を文章化して

文章からのタスク化

以下をタスク化して

コード

コード生成

xxするyyの関数を出力して

コードのドキュメント生成

以下の関数のドキュメントをxx形式で出力して

リファクタリング

こちらからコードを引用しました。

以下をリファクタリングして

単体テスト

以下の単体テストを書いて

※2番目のテストのexpectedは間違い. 900*0.98のため、882が正しい. AIのテストをテストするテストコードが必要

DB設計

〜に必要なtable一覧を出力して

物語

語調変化

「〜ですの」を語尾につけてxxについて説明して

このほか、「◯◯口調で」「◯◯風に」なども反映される。

キャラクターっぽい言い回し

以下はxxのセリフです

{セリフ例}

xxっぽく、敬語を使わず可愛く、yyについて説明してください。
Fi4coM3VQAAWFqi.png

おまけ

GPT-3の特徴

  • できること
    • 各種ドキュメントを自動生成する
    • 質問応答に利用する
  • 特徴
    • 超すごいマルコフ連鎖
    • Transformerというアーキテクチャを使っている (むかし話題になったBERTなどもそう)
    • 前の文章にある単語との関係性をパターン学習している

大規模言語モデル

  • Flan-U-PaLM (Google), 540B(5400億)クラス
    • PaLMが540B学習, Flan-PaLMがそれに1.8k(1800)タスク学習での調整
  • Gopher (Google / DeepMind), 280B(2800億)クラス
  • Bloomz (bigscience), 176B(1760億)クラス
  • GPT-3 (OpenAI), 175B(1750億)クラス
    • 提供方法: 有償API提供のみ
    • ライセンス: API使用規定に従う
  • OPT-175B (Meta), 175B(1750億)クラス
    • 提供方法: github
    • ライセンス: 非営利
  • Galactica: 120B(1200億)クラス
  • HyperCLOVA (LINE), 82B(820億)クラス
  • GPT-NeoX (EleutherAI): GPT-NeoX-20B, 20B(200億)クラス
  • GPT-J (EleutherAI): GPT-J-6B, 6B(60億)クラス
    • 提供方法: huggingface
    • ライセンス: apache-2.0
  • GPT-J-japanese-6.8B (Sta)
  • japanese-gpt2-medium(Rinna), 1.3B(13億)クラス

References