━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
佐々木俊尚の未来地図レポート 2023.5.1 Vol.516
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
http://www.pressa.jp/
【今週のコンテンツ】
特集
対話型AIのChatGPTは世界を「不可逆圧縮」している
〜〜〜「あなたの人生の物語」のテッド・チャンが提起する問題
未来地図キュレーション
佐々木俊尚からひとこと
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
■特集
対話型AIのChatGPTは世界を「不可逆圧縮」している
〜〜〜「あなたの人生の物語」のテッド・チャンが提起する問題
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
作家のテッド・チャンが2月にニューヨーカー誌に書いた長い記事が、話題になっています。「ChatGPTはウェブの不鮮明なJPEG」というタイトル。そして副題は「OpenAIのチャットボットは言い換えを、グーグルは引用をそれぞれ提供している。どちらがいいのだろうか?」。
★ChatGPT Is a Blurry JPEG of the Web | The New Yorker
https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web
テッド・チャンと言えば、もっともよく知られているのが1999年に発表された短編「あなたの人生の物語」。異星人が地球に到来し、政府から協力を求められた女性言語学者が異星人とのコミュニケーションを試みるという話です。2016年には邦題「メッセージ」(原題はArrival)として映画化されています。「過去から未来までをすべて認識していて時間の感覚がない異星人の言語とはどのようなものか?」というきわめてスリリングなコンセプトで、映画もたいへんすばらしい完成度でした。
そのテッド・チャンがニューヨーカーに書いたのは、画像や音声の「ロスレス(可逆)圧縮」と「ロッシー(不可逆)圧縮」によってChatGPTを説明するという、非常に鮮やかな説明です。
データの圧縮にはロスレスとロッシーがあるというのはIT分野では常識的な知識です。ロスレス圧縮は「可逆」と訳されるのでもわかるとおり、圧縮したデータを解凍し復元すると完全に元通りになるもの。文書などのテキストデータにはロスレス圧縮が必要です。復元したら文章のあちこちがおかしくなってしまうのでは、使いものになりません。
ロッシー圧縮は不可逆で、圧縮したデータを復元しても元通りになりません。たとえば音楽の配信などで使われているMP3は、人間の耳には聞こえない周波数の音をカットすることで、データを小さくしています。MP3に圧縮された音楽のデータは、復元しても元通りにはなりません。しかし音楽の場合、元通りの音でなくても人間の耳だとほとんど認識できないので問題はないのです。
さて、ここでテッド・チャンが問題になっているのは「ロッシー圧縮なのにロスレス圧縮に見えてしまっていることがある」ということです。そこで彼が題材にしているのが、ドイツで起きたというコピー機の話。建設会社の人が、とある住宅の間取り図をコピー機でコピーしたところ、もとの間取りと微妙に違ってしまったというのです。もとの間取り図では、3つの部屋の面積がそれぞれ14.13平方メートル、21.11平方メートル、17.42平方メートルと書かれていました。ところがコピーされた間取りは、3部屋とも14.13平方メートルになってしまっていたのだとか。
なぜそんなことが起きたのか。そのコピー機は元原稿をデジタルでスキャンして、内部メモリの容量を節約するため画像データをロッシー圧縮していました。圧縮の仕組みはこうです。画像の中にある「似たような部分」を特定し、そのすべての部分をひとつのコピーとして保存。解凍する際には、そのコピーを「似たような部分」それぞれに当てはめるのです。
誤作動したコピー機では、面積が書かれたラベルの部分を「似たような部分」と判断してしまい、14.13平方メートルだけを保存して、それを他の21.11平方メートルと17.24平方メートルにも当てはめてしまったのでした。
ここで問題なのは、単にコピー機が誤認したことではありません。誤って書かれた「14.13平方メートル」という記載が、鮮明だったことです。もしこの記載が昔のファクス機の感熱紙のように不鮮明でぼやけた文字だったりすれば、ユーザーの側は「これは間違っているかも」と疑うかもしれません。しかし鮮明な文字で書かれていれば、人はつい信じてしまうのです。
そしてChatGPTがやっているのは、これと同じようなものだとテッド・チャンは指摘しているのです。
ChatGPTは2021年9月までのインターネット上の膨大な情報を学習データにしています。後発で出てきたマイクロソフトのBing AIやグーグルのBardは、期限をとらずにリアルタイムで現在のインターネットの情報を扱っています。しかしこれら対話型AIは、インターネットの情報をそのまま回答として出してきているわけではありません。
たとえば「『けさ会社に行ったら』に続けて文章を書いて」とユーザーに質問されたら、ChatGPTは「けさ会社に行ったら」に続けて書かれている膨大な文章を探して、その平均的なところから続きの文章を生成しています。つまり統計的に処理しているのにすぎない。意味を理解しているわけではないのです。ただ学習データがあまりにも膨大なので、そこから得られた回答が複雑で人間らしく見えてしまうということなのでしょう。
この記事は約
NaN 分で読めます(
NaN 文字 / 画像
NaN
枚)