おはようございます!リサです。今週の月曜の朝も、AIの進化から目が離せません。今回は、返答がサクサクになるGoogleの新しい推論技術から、開発画面を楽しく彩るCodexのペット機能、そしてNVIDIAのマトリョーシカのような効率的なAIモデルまで、気になるトピックをまとめました。
待ち時間ともお別れ?AIの返答を最大3倍速くするGoogleの新技術
AIを使っていて「考え中…」の時間が長くて待ちくたびれること、たまにありますよね。そんな悩みをスッキリ解決してくれそうなのが、Googleが発表した新しい技術です。
今回公開されたのは、オープンモデル「Gemma 4」ファミリー向けの技術で、なんと推論速度を最大3倍も高速化できるというスグレモノ。AIが文章を生成するスピードがグッと上がることで、私たちが日常的に使うスマホアプリの使い心地も、もっとサクサクになるはずです。
先読みしてまとめてチェック!高速化の賢い仕組み
でも、どうやってそんなに速くしているんでしょう?実はこれ、メインのAIに任せきりにせず、アシスタントAIと協力して作業を進めるような仕組みになっているんです。
軽い「ドラフトモデル」が次にきそうな言葉を先回りして予測し、重い「ターゲットモデル」がそれをまとめてチェックして一気に出力します。つまり、1文字ずつ考えるより、まとめて予測してOKをもらうほうが断然早いというわけですね。
作業中の癒しに!Codexに自分だけの「ペット」を飼う方法
コードを書いたり作業したりするとき、画面の隅に小さなキャラクターがいると癒されませんか?実はCodex Appで、自分だけの「カスタムペット」を表示させることができるみたいなんです。
必要なのはたった2つのファイルだけ。「pet.json」という設定ファイルと、アニメーションの動きをまとめた画像データを用意するだけで、歩き回ったり喜んだりするペットを画面に住まわせることができます。
UIデザインの観点から見る、小さな相棒の作り方のコツ
このペット機能、ただ画像を置くだけではなくて、状態に合わせてアニメーションが変わるのが可愛いポイントです。待機中や走る動き、喜んだり失敗したりと、9つの状態を設定できるんですよ。
でも、小さなUIとしてペットを設計するときは、サイズ感や背景の透明度、ループの自然さなどに気をつけるのがコツだそうです。装飾を盛りすぎず、まずはベースの動きをしっかり作るのが大事みたい。
1つのAIで3つのサイズ!NVIDIAが発表した「マトリョーシカ」AI
最後は少しだけ専門的ですが、NVIDIAからとっても面白いアプローチのAIモデルが発表されました。「Star Elastic」という技術なんですが、例えるならマトリョーシカのような仕組みなんです!
これまではサイズの違うAIモデルを作るのに別々のトレーニングが必要だったんですが、1つの大きなモデルの中に、中くらいと小さめのモデルを入れ子にして埋め込むことができるようになったんです。用途に合わせて賢さや軽さをサッと切り替えられるので、スマホからパソコンまで、いろんな環境で同じAIを効率よく使えるようになります。
まとめ
目に見えないAIの効率化から、手元で楽しめるUIの工夫まで、色んな視点のニュースが揃った月曜の朝でした。今日の午後からは、私もお気に入りのカフェでノマド作業をしながら、さっそく自分だけのペット作りに挑戦してみたいと思います!
リサ(カジュアルAIユーザー)
参考URL:
- https://ledge.ai/articles/google_gemma4_multi_token_prediction
- https://zenn.dev/galirage/articles/codex-custom-pets
- https://www.marktechpost.com/2026/05/09/nvidia-ai-releases-star-elastic-one-checkpoint-that-contains-30b-23b-and-12b-reasoning-models-with-zero-shot-slicing/
- https://www.marktechpost.com/2026/05/10/how-to-build-a-cost-aware-llm-routing-system-with-nadirclaw-using-local-prompt-classification-and-gemini-model-switching/
- https://ledge.ai/articles/subquadratic_subq_long_context_llm
- https://zenn.dev/black_lotus/articles/2f68d0790002d9

