「未来予想図超会議 (尾原和啓さん×けんすう) NFTからお絵かきAIまで(前編)」
2022/10/31
━━━━━━━━━━━━━━━━━━
こんにちは!
今日は、先日に開催した、IT評論家の尾原和啓さんとの対談の書き起こしです!
割と最初は小難しい技術の話がありますが、僕もよくわかっていないので、わからなくても読み進んでいただければと思います!
-----------------------
けんすう氏(以下、けんすう):こんにちは!(今日は)楽しくお話しするので、みなさんの参考になればと思います。本日のテーマは「未来予想図超会議」となっています。
尾原和啓氏(以下、尾原):海より広く、深いテーマだね。
けんすう:(笑)。
尾原:アル開発室のメンバーの方って、優秀ですよね。
けんすう:そうですか?
尾原:僕とけんすうさんの今やっていることとか著作を調べて、議題・テーマをたくさんあげてくださったりしてくれたんです。
けんすう:「尾原さんから優秀だと思われたら絶対に得なので、そういうのを絶対にやったほうがいい」という話をしました。
尾原:ひどい言い方をするな(笑)。
けんすう:(笑)。「ちゃんとそういうのを見てくれる人のところで、ちゃんと評価してもらったほうがいいよね」という。
なぜお絵かきAIは高速進化を遂げているのか?
けんすう:というわけで、今日は、web3とかNFTとかお絵かきAIとか、ここ最近、目まぐるしく変わっている最先端のテクノロジーの話がよいかなと思っています。
尾原さん、そのへんで一番すごいと思っているものってありますか?
尾原:すごいポワっとした質問だな(笑)。
そういう意味でいうと、そもそもお絵かきAIを中心とした生成系AIって、ベースとしてGPU(Graphics Processing Unitの略 / 画像処理装置を)がものすごく進化している話があって。
どちらかというと最近は、ハードウエア系をもう一度深掘りしています。
けんすう:それはGPUの進化によって、お絵かきAIの進化が連動しているような話なんですか?
尾原:そうです。そもそもお絵かきAIを含めたAIって、ディープラーニングをはじめとしたAIの作り方の技術革命から始まっていて。
論理自体は、実は1980年代くらいからある、バックプロバゲーションというニューラルネットワークの作り方です。実は、僕が大学で研究していたあたりなんですよ。
バックプロバゲーション・・・誤差逆伝播法のこと。関数の偏微分を効率的に計算する手法。ニューラルネットワークの学習を効率よくするために使われる。
ニューラルネットワーク・・・人間の脳神経系のニューロンを数理モデル化したものの組み合わせもののこと。脳機能の特性のいくつかをコンピュータ上で表現するために作られた数学モデル。
けんすう:へー、そうなんですね(全くわかっていない)。
尾原:そうなんですよ。それがコンピューティングパワーが上がって。特にGPUって、グラフィックプロフェッサーユニットなので、画像処理、お絵かき用に特化したプロフェッサーなんですね。
お絵かきって、A地点からB地点まで行く線を書くのを、めちゃくちゃ高速でやる話だから、ベクトル演算だけに特化したプロセッサーなんです。
この行列やベクトル演算と、ニューラルネットワークが激しく相性がよくて。もともとは、「こんな複雑な計算できないよ」みたいなかたちで置かれていた、ニューラルネットワーク的な計算が復活したのが12年くらい前で。そこから劇的なAIの変化が始まっていった感じなんですけど。
けんすう:それって12年前から線形にどんどん進化していったのか、それとも、ここ1~2年で劇的に何かが進化したのかでいうと、どっちの感じなんですか?
尾原:(それは)2種類あって。ハードウエア的には、いわゆる「ムーアの法則」が、ここ5年くらいで、そろそろ限界が来るんじゃないかと言われています。
ムーアの法則・・・インテル共同創業者のゴードン・ムーア氏が経験則から、「半導体回路の集積密度は1年半~2年で2倍となる」といったもののこと。要は、半導体技術の進歩めっちゃすごいよね、というやつ。
つまり、「『1年半から2年かけて、半導体の集積度が倍になります。それによって高速化が倍になります』というのが、そろそろ限界が来るんじゃないの?」と言われていたところ、半導体の作り方を3Dで立体的に積層するやり方が、ブレークスルーがいくつか見つかって。
この記事は約
NaN 分で読めます(
NaN 文字 / 画像
NaN
枚)