テキスト生成系AIシステムに関する経営技術論的構造分析-WEB検索エンジンとの差異を中心として

WEB検索エンジン・プログラムとテキスト生成系AIエンジン・プログラムとの構造的差異
  1. 異なる文章表現間の同一性・関連性・差異性を、「literal(逐語的)なレベル」で捉えるWEB検索エンジン・プログラム vs 、「文章表現のパターンやコンテクストなど文章表現の内的構造というレベル」においても捉えるテキスト生成系AI
  2. WEB検索エンジン・プログラムは、検索キーワードの意味を、同義語・類義語・略語に関する辞書データベースを用いて、異なる文章表現間の同一性・関連性・差異性の度合いに関する「判断」処理作業をおこなっている。すなわち、異なる文章表現間の同一性・関連性・差異性を、literalなレベルで「判断」している。

    例えばGoogle検索において、同義語や類義語に関する辞書データベースを利用していることは[1]や[2]の特許情報に示されている。

     

    これに対して、生成系AIシステム・プログラムは、大量のデータから学習して「大規模言語モデル」(Large Language Models、LLM)を創り出して、様々な「判断」処理をおこなっている。すなわち、異なる文章表現間の同一性・関連性・差異性を、literalなレベルだけでなく、文章表現のパターンやコンテクストなど文章表現の内的構造というレベルにおいても「判断」している。

     

    例えば、大規模言語モデルの構成要素の一つには、「(ある特定のコンテクストにおいて)ある特定の単語の次に、どのような単語がどの程度の出現確率で登場するのか?」という単語出現確率に関するデータベースがある。また実際の生成系AIシステムにおいてどこまで実装されているのかは明確ではないが、文章のパターンやコンテクストを対象として、直喩(simile)、隠喩(暗喩,metaphor)、換喩(metonymy)、提喩(synecdoche)、諷喩(allegory)などの「比喩」表現的構造という視点から同一性・関連性・差異性の「判断」処理をおこなうことも研究されている。
     単語間の現象的関係の中に、直喩、隠喩、換喩、提喩、諷喩といった様々な「比喩」表現的構造が存在しているということは、「現象的構造に関する構造」(単語間の連接という現象的構造の中に、メタ的レベルにおける構造が存在し、それらの構造がいくつかに分類されるということ)の存在を示すものである。
     

     
  3. 生成系AIの事前訓練に用いられたデータ、および、生成系AIがテキスト自動作成に利用するデータの「質」問題
  4. テキスト生成系AIシステムの事前訓練に用いられたデータ、および、テキスト自動作成に利用するデータとしては、著作権者の許諾を得たデータはさほど多くはないと思われる。大部分のデータは、public domainのデータやWEB上に存在するopen contentのデータであると思われる。
     生成系AIの回答の精度の相対的限界が存在する一つの要因は、「著作権の法的保護期間内にある良質なデータを大量には利用できていない」ということにある。

     
  5. 「事実と価値」、「事実と推測」の区別を基本的には持たないinput-outputシステムとしての、テキスト生成系AI
  6. テキスト生成系AIシステムも、基本的には input – processing unit – output構造で理解可能と思われる。

     現行のテキスト生成系AIシステムは、inputデータの中に、「事実」言明と「価値」言明の区別、「事実」と「推測」の区別をメタデータとして持つような設計には基本的にはなっていない。(そうした区別構造を持つ生成系AIシステムを技術的には考えられるが、現行のテキスト生成系AIシステムのハードウェア能力的問題[高精度化と高速化の相反的関係も含む]や、「価値」判断に関わる倫理的問題[どのような「価値」を優先させるのかも含めて、「価値」判断に関しては多様な考え方があり、社会的に広く一致・共通している点もある程度は存在するが、それほど多くはない。]などから実装することは、誹謗中傷的言明・人種差別的言明・犯罪助長的言明など一部の例外を除き、現段階では基本的にはされてはいない。)
     また学習(training)として、最初に与えられたinputデータを、外部的な「事実」データ群との一致・不一致によって「事実」データと「非-事実」データ(推測、物語、空想など)に区分する学習や、言明の信頼度を算出するような学習をさせるような製品設計にはなっていない。すなわち、「事実」言明と「価値」言明の区別、「事実」と「推測」の区別といった差異構造を事後的に内部的に持つような設計には基本的にはなっていない。

  7. 「事実」的内容に関わるユーザーからの質問に対する回答の生成に対する製品設計(Product design)の差異-なぜChatGPT3.5は「明治大学経営学部の学科構成はどのようなものですか?」などといった事実に関する問いに対して、まったく誤った回答をするのか?
  8. 「事実」的内容に関わるユーザーからの質問に対する回答に関して、ChatGPT無料版(ChatGPT3.5)はまったく誤った回答をすることがよくある。こうしたことが原因となって、「生成系AIシステムの回答は信頼できない。」という一般的印象が生み出されている。
     しかしながらChatGPT無料版(ChatGPT3.5)の回答の信頼性の低さに関して、「現行の生成系AIシステム技術それ自体の構造的限界を示している」という理解はあまり適切ではない。欠陥に起因するというよりも、に対する一般的な懐疑の
    信頼度の高低に関するテキスト生成系AIの判定法
    生成系AIシステムも、基本的には input – processing unit – output構造である。それゆえ、processing unitによる処理プロセスにおいて、「信頼度が高いデータ」群を明示的に指定することによって、より信頼度の高い回答を出力するように設計することはできる。例えばPerplexity AIがChatGPTよりも信頼度の高い回答を生成する確率が高いのはそうした設計になっているためと思われる。なおChatGPT4もオプションのBrowse with Bingオプションを選択することでより信頼度の高い回答をするような設計になっている。

    「なぜChatGPT3.5は下記WEBページのOpenAI LP(2023)「明治大学経営学部の学科構成はどのようなものですか?」などといった事実に関する問いに誤った回答をするのか?」といった趣旨の問題に関しては下記のPerplexity AIによる2023/6/8回答ChatGPT4.0による2023/6/8回答が参考になる。
     ただしChatGPT4.0による2023/6/8回答に挙げられている要因だけでは、「明治大学経営学部の学科構成」に関して間違った回答をするのかを説明はできない。
    「明治大学経営学部の学科構成」に関して間違った回答をする理由に関する説明の正確性・信頼度に関しても、Perplexity AIの方がChatGPT4よりも高い。

     なお本問題については佐野正博(2023)もご参照ください。

     
カテゴリー: Hallucination(幻覚)問題, テキスト生成AIシステムに関する構造的分析, 理論的分析, 生成AI, 生成AIの信頼性問題, 生成AIの回答例, 経営技術論的解説 パーマリンク