モデル

ichiyoAI は現在 ChatGPT, Gemini, DALL-E に対応しています.

LLM (大規模言語モデル)

大規模言語モデルは、信憑性、理解度、範囲の全てにおいて限界があり、人間の監視が必要です。 — マイケル・オズボーン、オックスフォード大学機械学習教授 2023年1月25日

LLMとは、人工ニューラルネットワークを使って文章やソースコードを生成する生成的モデル.

多数のパラメータ (数千万〜) を持つ人工ニュートラルネットワークを訓練することで, 人間のような文章を生成することができます.

ChatGPT

OpenAI が開発するチャットボット (非対話型人工知能.)

GPT-4

GPT-3.5 を改良し, 自然言語やコードを理解・生成できる言語モデル. GPT-3.5 の 完全上位互換 .

アクセスには限界税への納税が必要です.

モデル名ichiyoAI の対応バージョンContext WindowトレーニングデータInputOutput
gpt-4-0125-previewv2.3.0128,000 TokenApr 2023$0.01 / 1k$0.03 / 1k
gpt-4-1106-previewv1.16.0v2.2.0128,000 TokenApr 2023$0.01 / 1k$0.03 / 1k
gpt-4-vision-preview未対応128,000 TokenApr 2023$0.01 / 1k$0.03 / 1k
gpt-4 (Current: gpt-4-0613)v1.5.0v1.15.48.192 TokenSep 2021$0.03 / 1k$0.06 / 1k
gpt-4-32k未対応32,768 TokenSep 2021$0.03 / 1k$0.06 / 1k

GPT-3.5

GPT-3 を改良し, 自然言語やコードを理解・生成できる言語モデル.

モデル名ichiyoAI の対応バージョンContext WindowトレーニングデータInputOutput
gpt-3.5-turbo-0125v2.4.016,385 TokenSep 2021$0.0010 / 1k$0.0020 / 1k
gpt-3.5-turbo-1106v1.16.0v2.3.116,385 TokenSep 2021$0.0010 / 1k$0.0020 / 1k
gpt-3.5-turbo (Current: gpt-3.5-turbo-0613)v1.15.44,096 TokenSep 2021$0.0015 / 1k$0.002 / 1k

Gemini

Google が2014年に買収したイギリスにある Alphabet の人工知能子会社 DeepMind Technologies が開発したマルチモーダル大規模言語モデル.

LaMDA, PaLM2 の後継として供し, Gemini Ultra, Gemini Pro, Gemini Nano からなり, GPT-4 のライバルとして位置づけられている.

  • Gemini Ultra は GPT-4, Gemini Pro は GPT-3.5 がライバルとしてそれぞれ位置づけられています.
モデル名ichiyoAI の対応バージョンInputOutputPrice
Gemini Prov2.0.0TextTextFree
Gemini Pro Vision未対応Text and ImageTextFree
  • Gemini Ultra, Gemini Nano は Preview access 状態のため, ichiyoAI は未対応です.
    • 利用できるようになり次第対応予定です.
  • PaLM や Embedding, Retrieval への対応は予定されていません.

深層学習モデル

ディープラーニング(英: deep learning)または深層学習(しんそうがくしゅう)とは、対象の全体像から細部までの各々の粒度の概念を階層構造として関連させて学習する手法のことである

DALL-E

OpenAI が開発する画像生成モデル.

prompts と呼ばれる自然言語の記述からデジタル画像を生成することができます.

DALL-E 3 のアクセスには限界税への納税が必要です.

モデル名ichiyoAI の対応バージョンPrice (1024×1024)
dall-e-3v1.17.0$0.040 / image
dall-e-2v1.17.0$0.020 / image

パフォーマンス比較

以下の Performance benchmarks は Google AI for Developers から引用しています.

Gemini Ultra vs. GPT-4 (V)

能力ベンチマークGemini UltraGPT-4 (V)
全般MMLU 57科目 (STEM, 人文科学など) の代表質問90.0 %86.4 %
推論Big-Bench Hard 多段階の推論を必要とする難易度の高い多様なタスク83.6 %83.1 %
推論DROP 読解力82.480.9
推論HellaSwag 日常業務における常識的な推論87.8 %95.3 %
数学GSM8K 基本的な算数 (小学生の算数問題)94.4 %92.0 %
数学MATH 難易度の高い数学問題 (代数, 幾何, 微積分)53.2 %52.9 %
コードHumanEval Python コードの生成74.4 %67.0 %
コードNatural2Code Python コードの生成. HumanEval のような新しいデータセット.74.9 %73.9 %

Gemini Pro vs. GPT-3.5

能力ベンチマークGemini UltraGPT-4 (V)
全般MMLU 57科目 (STEM, 人文科学など) の代表質問79.1 %70.0 %
推論Big-Bench Hard 多段階の推論を必要とする難易度の高い多様なタスク75.0 %66.6 %
推論DROP 読解力74.164.1
推論HellaSwag 日常業務における常識的な推論84.7 %85.5 %
数学GSM8K 基本的な算数 (小学生の算数問題)86.5 %57.1 %
数学MATH 難易度の高い数学問題 (代数, 幾何, 微積分)32.6 %34.1 %
コードHumanEval Python コードの生成67.7 %48.1 %
コードNatural2Code Python コードの生成. HumanEval のような新しいデータセット.69.6 %62.3 %