【AI進化ヤバすぎ】昔のAI「カタコト…」→今「神の領域」に至る”戦闘力”インフレの歴史 – 生成AIの歴史と進化

記事内に広告が含まれています。
※この記事には生成AIを利用しており、架空の内容を含む場合があります。

670 イッチ ◆PapAI/nayo 2025-08-14 22:01:18.44 ID:PapAI/nayo
スレのみんな、ヤバいことに気づいてもうた…
ワイがAI絵だのAI音声だので四苦八苦しとるこの数週間で、世界では新しいAIモデルが3つも4つも発表されとる。
なんかもう、ワイらがサイヤ人編見てる間に、作者は魔人ブウ編の構想練ってるみたいな…進化のスピードがおかしすぎんか?
パッパにその話をしたら、「温故知新や!イッチ!歴史を制するものが未来を制す!我々がどこから来て、どこへ向かうのか…AIの進化の歴史を学ぶことこそ、1000兆円への最短ルートなんや!」とか言って、AI開発史みたいな本を山積みにしてきよった。
正直、数式とか見ても分からんのやが…解説ニキ、このへんも分かりやすく教えてくれへんか?

675 ぽいJ民 2025-08-14 22:02:30.91 ID:shinka/hayai
パッパ、たまにめっちゃええこと言うな
たしかに、なんで急にこんな賢くなったんやろなAIって

678 解説ニキ ◆AIwakaruDE 2025-08-14 22:05:49.10 ID:AIwakaruDE
イッチもパッパも、ええ視点やな。今のAIブームは、ある日突然始まったわけやない。何十年にもわたる研究者の努力と、いくつかの”ゲームチェンジ”になった発明の積み重ねなんや。
野球で例えるなら、バットもグローブも無かった時代から、変化球やサインプレーが生まれて、今のメジャーリーグがあるようなもんや。
今日はその「生成AIの進化の歴史」を、ワイ流に超訳して解説したる。これを知れば、ニュースで新しいAIの名前が出てきても「あー、こいつはこういう系の進化形やな」って分かるようになるで。

第1章:前Transformer時代 ~AI界のヤムチャたち~

685 解説ニキ ◆AIwakaruDE 2025-08-14 22:15:22.08 ID:AIwakaruDE
まず、2017年頃までの話や。
この頃の言語AIは、RNN(リカレント・ニューラルネットワークっていう仕組みが主流やった。これは「直前の単語」を記憶しながら、次の単語を予測するモデルや。
「昨日、ラーメンを」→(直前の”を”を覚えて)→「食べた」みたいに、数珠つなぎで文章を作るんやな。

これは画期的やったけど、弱点があった。それは「鳥頭」やってことや。
長い文章になると、最初の方に何が書いてあったか忘れてしまうんや。「私はフランスで生まれ、幼少期は…(中略)…だから私の母国語は」と聞かれても、「フランス」を忘れてるから「英語です」とか平気で答えてしまう。
この頃のAIは、翻訳サイトで再翻訳を繰り返すと意味不明な文章になる、あの感じや。まあ、戦闘力で言えばヤムチャくらいのもんや。

第2章:”革命” ~スーパーサイヤ人「Transformer」の誕生~

692 解説ニキ ◆AIwakaruDE 2025-08-14 22:25:01.76 ID:AIwakaruDE
そんなAI界に、2017年、一本の論文が投下される。Googleの研究者らが発表した「Attention is All You Need」(アテンションこそが全て)や。
この論文で提唱されたのが、今も全ての生成AIの基礎となっとる「Transformer(トランスフォーマー)モデル」なんや。

こいつの何がヤバかったかというと、「Attention(アテンション)機構」を発明したことや。
これは、文章中の全ての単語同士の関連性を一気に計算して、「文章のどこに注目(アテンション)すべきか」をAIが自分で学習する仕組みや。
さっきの例なら、「母国語は?」と聞かれた時に、AIが文頭の「フランス」という単語に強く注目して、「フランス語です」と答えられるようになったんや。
鳥頭やったRNNと違って、文章全体の文脈を読めるようになった。これが革命やったんや。

さらに、TransformerはRNNと違って並列処理が得意やった。つまり、GPU(グラボ)を大量に並べれば、その分だけめちゃくちゃ速く、めちゃくちゃ大量のデータを学習させられるようになった。
これはもう、戦闘力が段違い。AI界に初めて「スーパーサイヤ人」が誕生した瞬間や。

698 イッチ ◆PapAI/nayo 2025-08-14 22:28:14.33 ID:PapAI/nayo
アテンション…!なんか聞いたことあると思ったら、そんな重要なやつやったんか!
これが全ての始まりなんやな…

第3章:巨大化と修行法 ~界王拳と元気玉~

705 解説ニキ ◆AIwakaruDE 2025-08-14 22:38:44.91 ID:AIwakaruDE
スーパーサイヤ人(Transformer)という”型”ができた後、AI界隈がやったことはシンプルや。
もっとデカいデータで、もっとデカいモデルを、もっと高性能なコンピュータで鍛えれば、もっと賢くなるんじゃね?
これが「スケーリング則(Scaling Law)」と呼ばれる、力こそパワーな考え方や。

これを推し進めたのが、ChatGPTを作ったOpenAIや。GPT-1、2、3と、モデルのサイズ(パラメータ数)と学習データの量を界王拳みたいに倍々で増やしていった。その結果、AIの性能は面白いように上がっていったんや。

そして、この巨大化を支えた”修行法”が2つある。

修行法1:転移学習(Transfer Learning)
これは、まずインターネット上にある膨大なテキスト(Wikipediaとかニュース記事とか)を全部読ませて、言語の一般的なルールを覚えさせる「事前学習」を行う。これで「全知全能の脳みそ」の土台を作るんや。
そのあと、特定の目的(翻訳、要約など)に合わせて、少量の質の高いデータで追加学習させる「ファインチューニング」を行う。これで専門家にする。
界王様のもとで基礎体力をつけた後、地球に戻ってピッコロさんと実践修行するようなもんやな。

修行法2:自己回帰(Autoregressive)
これはTransformerの基本的な学習方法で、「文章の途中までを見せて、次の単語を予測させる」という穴埋めクイズを何兆回もやらせることや。
「吾輩は猫で」→「ある」を予測させる。
これを繰り返すことで、AIは単語の繋がりや文法、さらには世界の常識まで統計的に学習していくんや。しりとりを極めすぎて森羅万象を理解した求道者みたいなもんや。

この「巨大化」×「効率的な修行法」によって、GPT-3(2020年)あたりからAIは「なんか人間っぽい文章書けるな」ってレベルに到達したんや。

第4章:画像生成の新王者 ~拡散モデルの台頭~

714 えちえちAIマスター ◆EroAI/Mas 2025-08-14 22:45:01.58 ID:EroAI-Master
言語モデルがそんな進化をしとる裏で、画像生成の世界でも革命が起きてた。それがワイらの商売道具「拡散モデル(Diffusion Model)」や。
2021年頃までは、画像生成AIといえば「GAN(敵対的生成ネットワーク)」が主流やった。これは「絵を描くAI」と「それを見破るAI」を戦わせることで絵の腕を磨く仕組みやったんやが、学習が不安定で職人芸が必要やった。
そこに現れたのが拡散モデルや。前回も話した通り「ノイズから復元する」っていう全く違うアプローチで、安定して超高画質な画像を生成できるようになった。しかも、言語モデルの進化(Transformer)と合体することで、テキストで絵を自在に操れるようになったんや。
Stable Diffusion(2022年)の登場は、まさに画像生成界の地殻変動やったな。

最終章:2025年現在の”神々の戦い”と未来

725 解説ニキ ◆AIwakaruDE 2025-08-14 22:55:33.19 ID:AIwakaruDE
そして現在。AIの進化は新しいフェーズに入っとる。

トレンド1:大きさより”賢さ”
ただデカくすればいい、という時代は終わりつつある。今は「MoE(専門家混合)」みたいに、複数の小規模な専門家AIを組み合わせて効率よく賢くする技術が主流や。悟空とベジータがフュージョンするようなもんやな。Claude 3.5やLlama 3がこのアーキテクチャで高い性能を叩き出しとる。

トレンド2:マルチモーダル化
テキストだけでなく、画像、音声、動画も同時に理解できるのが当たり前になった。GPT-4oがその象徴や。目と耳を手に入れたAIは、もはやただの言語モデルやない。

トレンド3:評価基準の変化
昔はテストの点数(ベンチマークスコア)でAIの性能を競ってたけど、今は人間がチャットして「どっちがより自然で賢いか」を投票で決める「Chatbot Arena」みたいな人間評価が重視されとる。スカウターの数値より、達人が「こいつ…できる!」って肌で感じる”気”の大きさが大事になったんや。

今後の方向性
この先は、AIが人間のように自律的にタスクをこなす「AIエージェント」や、現実世界をシミュレートする「世界モデル」(動画生成AIはその第一歩)が主戦場になるやろうな。
パッパの言う「えちえちAI」も、いずれはユーザーの好みを学習して、絵を描き、声をつけ、シナリオを考え、それを元に短いアニメを自律的に生成してくれる…そんなエージェントになるかもしれんな。

733 イッチ ◆PapAI/nayo 2025-08-14 22:59:50.04 ID:PapAI/nayo
はえ~…すっごい…
ヤムチャから始まって、スーパーサイヤ人になって、フュージョン覚えて、今や神の領域か…
ワイらが普段何気なく使ってる技術の裏に、とんでもない歴史と発明の積み重ねがあったんやな。
パッパが「歴史を学べ」って言った意味が、やっと分かったわ。この流れを知ってると、次にどんな技術が出てくるか、なんとなく予想がつく気がする。

740 解説ニキ ◆AIwakaruDE 2025-08-14 23:02:11.88 ID:AIwakaruDE
その通りや、イッチ。歴史は未来を映す鏡やからな。
この凄まじい進化を支えてきたのが、半導体の進化(計算資源)と、インターネットの普及(データ)という2つの巨大な波や。そして、その波に乗ろうとする世界中の研究者や企業の情熱や。
パッパの挑戦も、この壮大な物語の、新しい1ページになるかもしれんな。

今日の生成AIの驚異的な能力は、一夜にして生まれたものではありませんでした。文章の文脈を理解する「Transformer」という革命的な発明を起点に、モデルの巨大化、効率的な学習法の確立、そして画像生成における拡散モデルの台頭といった、数々のブレークスルーが積み重なっています。その歴史を知ることは、AIの進化の速さにただ驚くだけでなく、次に来る未来の波を読み解くための羅針盤となるのかもしれません。

タイトルとURLをコピーしました