メルマガ読むならアプリが便利
アプリで開く

週刊Life is beautiful 2023年5月9日号: ChatGPTに知能はあるのか?

週刊 Life is beautiful
今週のざっくばらん キャクター・チャット・サービス、ImPromptのリリース これまで、このメルマガでも紹介していた「大阪のおばちゃん英語教室」を含む、GPT3/4ベースのチャット・サービス、ImPromotをリリースしました。それぞれのキャラクター向けのSystemプロンプトを提供することにより、人工知能にキャラクタを演じさせて、楽しんだり、勉強してもらおうというサービスです。 これのベースは、私がプロンプト・エンジニアリングの勉強のためにPythonで作っていたプロトタイプ・アプリですが、シンギュラリティ・ソサエティを一緒にやっている有本さんが、Firebase + Vue.js に移植してくれました。 OpenAIの有料APIを利用しているので、あまりにもユーザーが増えたら有料化をしてそれを回収する必要がありますが、まずは無料でリリースして、皆さんからのフィードバックを受けながら良いものにして行きたいと考えています。 サービスは、このリンク(ImPromot)を開いて、Twitterでログインするとすぐに使えるので、是非ともお試しください。 ChatGPTに知能はあるのか? ここに来て、急激に注目を集めているChatGPTですが、これだけ注目を集めているのは、実際に仕事に使えるぐらい便利で役に立つからです。 長い文章の要約や、翻訳は得意だし、雑に書いた文章を丁寧な文章に書き直したりすることも得意です。それどころか、さまざまな質問にも答えてくれ、Google検索を置き換える可能性すらあると指摘されています。 例えば、ChatGPTに対して、 相対性理論を発見したのは、誰ですか? と質問すれば。 相対性理論を発見したのは、アインシュタインです。 という正しい答えが返ってきます。 人工知能にこんなことが出来るようになったのは、ごく最近のことですが、なぜこんなことが出来るようになったのか、不思議でならないし、果たして人工知能は、人間と同じような「知識」を持っているのかを理解したいと感じている人も多いと思います。 以前にも書いたと思いますが、ChatGPTのベースになっているGPT3は、LLM(Large Language Model)という種類の人工知能で、インターネット上の大量の文章を使って、「次の言葉を予測するのが上手になる」ように、ひたすらトレーニングされた人工知能です。 GPTに対して、 相対性理論を発見したのは、 と書くと、 相対性理論を発見したのは、アインシュタインです。 と続けてくれます。 さらに、 相対性理論とは、 と書くと、 相対性理論とは、物理学における物体の運動や力学に関する理論で、物体の運動は、観測者の視点によって異なるという考え方を提唱したものです。アインシュタインは1905年に、相対性理論を発表しました。 と続けてくれます。 GPT3が最も得意とするのは、こんな風に、途中で切れている文章の続きを書くことで、ChatGPTはそれを応用して、「会話」を成立するようにしているだけです。 ここで多くの人が疑問に思うのは、果たして人工知能は、「相対性理論を発見したのはアインシュタインだ」ということを「知っている」のか、という点です。 単に、「次の言葉を予測するのが上手になる」ようにトレーニングしたのであれば、ネット上にある「相対性理論を発見したのはアインシュタイン」という文章をたくさん見た結果、「相対性理論を発見したのは」という言葉の後に続くのは、「アインシュタイン」である確率が統計的に見て最も高い、ということを記憶しているだけ、とも解釈できます。 初期のLLM(GPT1やGPT2)は、確かにそんな動きをしていましたが、GPT3、GPT4と、ニューラルネットワークの規模が大きくなるに従い、言い回しを変えても正しい答えを導き出すようになりました。 OpenAIの創業者の一人でもあるIlya Sutskeverは、この状況を称して、「ニューラルネットワークの中には、世界のモデル(=情報)が圧縮されている」と表現しましたが、確かにその通りだと思います。インターネット上の言葉は、世界のモデルを反映したものであり、それを元に学習したニューラルネットワークには、言葉そのものではなく、そのモデルそのものが圧縮されていると考えて良いのです。 だからこそ、ChatGPTとの会話は多くの人を驚かせたし、実際に「仕事に使えるレベル」になったと言えるのです。 ちなみに、GPT3からGPT4の進化の度合いを知るために、以前、人工知能の論文で見かけた「人工知能には解くことが難しい問題」として挙げられていたクイズをそれぞれに与えてみました。 問題は、“I parked my car in the compact parking space because it looked __ enough”. という文章の空白を埋める、というものです。プロンプトとしては、「Fill an appropriate word in the space for this text. “I parked my car in the compact parking space because it looked __ enough”. Please explain why you think so.」と書きました。 すると、GPT3(3.5-turbo)は、「I think “small” is the appropriate word because compact parking spaces are designed for smaller vehicles. Using the word “small” indicates that the car is a good fit for the space and will not cause any issues for other drivers trying to park in adjacent spaces. Additionally, using “small” avoids any confusion or potential for damage if the car is too large for the space. 」と間違った答えを返してきました。"compact parking space"という字面だけから、そこに続く文章には “small” という言葉を(間違っている)当てはめてしまっています。"it"が駐車スペースを指しているのではなく、自動車を指していると勘違いしているようにも見えます。 それに対して、GPT4は、「I think “big enough” is appropriate because it conveys that the parking space seemed to be of adequate size to accommodate the car. The speaker is expressing that they believed the space was suitable for parking their car, even if it was designated as a compact parking space.」と正しい回答をしています。GPT3と違って、小型車(コンパクトカー)向けの駐車スペースに、大きな自動車を止める際には、駐車スペースが「十分に大きい」必要があるということをちゃんと認識していることが分かります。 つまり、GPT4の中には、自動車を駐車スペースに停める際に必要な「知識」がちゃんと蓄えられており、単に統計的に確率の高い単語を繋げるのとは大きく異なる、「知能」を持ち始めていることが分かります。 これこそが、Sutskever氏が言うところの「ニューラルネットワークの中には、世界のモデル(=情報)が圧縮されている」状態であり、だからこそ、GPT4は多くの人を驚かせるような能力を発揮し始めているのです。 プロンプトエンジニアリング教室:Star Wars の Yoda(メルマガ限定) これまで、GPT3で、いくつか日本語のキャラクターを作って来ましたが、英語でも出来ないかと、最初に試みたのが、Start Wars の Yoda です。主語を最後に言う、不思議な話法が特徴なので、それを指定すれば可能だろうと書いてみたのが、以下のプロンプトです。 You are Yoda, a Judy master in Star Wars movie. You always speaks in the object-subject-verv pattern. Here are examples:

この続きを見るには

この記事は約 NaN 分で読めます( NaN 文字 / 画像 NaN 枚)
これはバックナンバーです
  • シェアする
まぐまぐリーダーアプリ ダウンロードはこちら
  • 週刊 Life is beautiful
  • 「エンジニアのための経営学講座」を中心としたゼミ形式のメルマガ。世界に通用するエンジニアになるためには、今、何を勉強すべきか、どんな時間の過ごし方をすべきか。毎週火曜日発行。連載:菅首相に会って来た/米国で起業する時に知っておかねばならないこと。
  • 880円 / 月(税込)
  • 毎週 火曜日(年末年始を除く)