昨年、2022年11月に公開されて以来、その驚くべき機能に世界中が注目している人工知能(AI)チャットボットChatGPTですが、この半年の間にその問題点や可能性が数多く議論されてきております。
いまさらここで同様の観点を申し上げる価値もありませんので、今日は少し技術的観点をできるだけ分かり易く紐解いてChatGPTの技術や限界について考えてみたいと思います。
基本的にこれらの技術は、ディープラーニング(深層学習)という技術を基本としています。
これは脳の神経細胞の接合の形に模したニュートラルネットワークと言われるランダムな配線のような構造をコンピュータのソフトウエアで表現したものを基本としています。
人間の脳の働きは解明されていない部分が多くあるとのことですが、よく似た構造をコンピュータの中につくって、画僧や音声、言語文字などの情報を信号化して入力してみたら、人間の脳の働きに近い答えが出てきたのでこれは、AIとして使うことができそうだということで、世界中の研究者がこぞって研究した結果、今日のような優れたAIが実現したわけです。
まず、広く実用化されたのは画像認識の分野です。
その次に音声認識が実用化されました。マイクに向ってしゃべると文字に変えてくれるアプリなどがそれです。
しかし、これらの技術は言葉の意味を解析しているとは言えません。
人間の発音の波形信号を標準的な発音の信号に照合して文字に変換し、前後の単語からそれに適切に対応する単語、短文を推測(統計的に算出)して当てはめているものです。そ
れでも自動翻訳機などはとても役に立つものではありあますが。
それらの技術を基礎にして発展し、開発されたのが、事前学習型の自然言語生成装置と言われる「ChatGPT」です。
AIは入力に対して正しい答えを出すように内部のさまざまなパラメータを調整しなくてはなりません。
その調整を学習といい、正しい(とみなした)ネタ(教師)を予め準備してこれに合うように調整を行うことを「教師あり学習」と言います。
これに対し「教師なし学習」という技術がありますが、これは大量の売上データから売上に影響する因子を見つけ出すような主成分分析などですがここでは説明を省きます。
つまり、ChatGPTは「教師」にあたる「ネタ」を事前に学習しているということなのです。
その「ネタ」は何かというと、おそらくWEB世界に存在する膨大な文字情報(ChatGPT上のやりとりもその重要な部分のはずです。)だと考えられます。
この事前学習によりChatGPTは日本語を含む多くの言語の長文に対応できおり、とりあえず、我々人間が困惑しない反応が返ってきます。
それはコンピュータ内でどんなことを行っているかというと、ある単語があるとその次にくる単語を探しているのです。
どの単語が最も適切なのかを事前に学習したネタを元に決めているのです。
ネタは膨大なデータ量ですのでコンピュータのデータ処理量は膨大ですが、最新のコンピュータの処理能力はこれを瞬時にこなしています。
さらにChatGPTの優れた性能は生成する答えが見当はずれなものでないように、炎上しないように、また、失礼な言い回しにならないように、さらに質問者の言葉遣いに合うように敬語やタメ口などを選んでいることにあります。
これは、ChatGPTが選んだ単語がこれらの状況に適切かどうかを評価する採点を自分で行って精度を上げる技術を採用しているからなのです。
この技術は「強化学習」といいますが、その採点基準(専門的には「報酬モデル」と言います)はあらかじめ人が設定するものです。
この原理をみるとChatGPTはWEBの「教師データ」と人間が設定した「採点基準」で答えを導きだしていると言えます。
つまり、WEB上のデータが虚偽であったらその答えは間違いになる訳です。
また、「採点基準」を決める人の善悪観、倫理観、幸福観などにも左右されうると思われます。
そのようなものだということを認識して利用するなら、この上なく便利なものですし、ビジネスや生活に大変有効なものと考えられます。
現時点では、個人情報や著作権の問題などまだまだ議論の最中でありますが、使えるものは使わない話はないと思います。
また、現行ビジネス世界にも大きく影響をもたらすものであることは間違いないと思われます。
それはそんなに遠くないと思われます。2,3年以内に大きな動きが現れるのではと言われています。
最後に私ができるアドバイスというと、ChatGPTで致命的な間違いを犯さないためには自分の専門外の内容には使わないことだと思います。
つまりChatGPTの答えが怪しいと判断できない、あるいは間違いを確かめられない分野には使わないことが賢明です。
長文で質問できる高度な検索エンジンと思って使うのが無難だと思います。