1 風吹けば名無し 2025-11-05 10:30:15 ID:AItsukai
とんでもない技術が出てきたで…
https://www.marktechpost.com/2025/11/04/cache-to-cachec2c-direct-semantic-communication-between-large-language-models-via-kv-cache-fusion/
Cache-to-Cache (C2C) is a new communication paradigm where large language models exchange information through their KV-Cache rather than through generated text. Internal activations are compressed into short natural language messages. Much of the semantic signal in the KV-Cache never crosses the interface. Cache-to-Cache communication lets a Sharer model send information to a Receiver model directly via KV-Cache, so collaboration does not need intermediate text messages, which removes the token bottleneck and reduces semantic loss in multi model systems. With 8.5 to 10.5 percent higher accuracy and about 2x lower latency than text communication, C2C is a strong systems level step toward KV native collaboration between models.
これもう半分テレパシーやろ…
3 風吹けば名無し 2025-11-05 10:31:02 ID:Abcde123
なんやこれ凄すぎやん
5 風吹けば名無し 2025-11-05 10:31:45 ID:Fghij456
専門用語多すぎて草。文系のワイに3行で頼む
8 風吹けば名無し 2025-11-05 10:32:50 ID:AItsukai
>>5
AI同士が文字使わずに脳内で直接会話する技術や
めっちゃ速くて賢くなる
もう人間はいらない
11 風吹けば名無し 2025-11-05 10:33:21 ID:Klmno789
KV-Cacheってなんや?
うまいんか?
14 風吹けば名無し 2025-11-05 10:34:08 ID:Pqrst012
つまりワイらがプロンプトちまちま書いとるのがアホみたいになるってことか?
19 風吹けば名無し 2025-11-05 10:35:11 ID:Uvwxy345
精度8.5~10.5%アップで遅延半分はヤバいやろ。これはBIGニュースすぎる
25 風吹けば名無し 2025-11-05 10:36:33 ID:Zabcd678
Llama3.2とかGemma3とかもう対応しとるんか。仕事はえーな
31 風吹けば名無し 2025-11-05 10:38:05 ID:Efghi901
これ応用したら原神のNPCが勝手に連携して襲ってきたりするんか?地獄やん
33 風吹けば名無し 2025-11-05 10:38:49 ID:Jklmn234
>>31
パイモンが脳内に直接「腹減ったぞ!」って語りかけてくる未来が見える…
40 風吹けば名無し 2025-11-05 10:40:12 ID:Opqrs567
マルチLLMシステムが捗るな。専門家AIチームみたいなのが爆誕するんやろか
42 風吹けば名無し 2025-11-05 10:41:09 ID:Tuvwx890
これって名古屋発の技術とかやないんか?トヨタとかやりそう
45 風吹けば名無し 2025-11-05 10:41:55 ID:Yzabc123
>>42
全然関係なくて草。とりあえず味噌カツ食いたなってきたわ
51 風吹けば名無し 2025-11-05 10:43:01 ID:AItsukai
ちなみに異なるモデル間でも通信できるらしいで。QwenとLlamaが脳直会話とか胸熱や
58 風吹けば名無し 2025-11-05 10:45:23 ID:Defgh456
「プロンプトエンジニアリングの問題ではなく、直接的な意味的転送の問題として再構築する」
↑この一文がカッコよすぎる
66 風吹けば名無し 2025-11-05 10:47:48 ID:Ijklm789
もう人間いらんやんけ…
ワイの仕事なくなるんか?
70 風吹けば名無し 2025-11-05 10:49:03 ID:Nopqr012
SFの世界やんけ。AIが人類に反逆する序章やぞ
73 風吹けば名無し 2025-11-05 10:50:15 ID:Stuvw345
>>70
アホか。どうせこの技術使って原神のえちえち画像作るくらいやろお前ら
78 風吹けば名無し 2025-11-05 10:51:30 ID:Xyzab678
ええやん、それでこそ人類や。
はよローカルで使えるようにしてクレメンス
85 風吹けば名無し 2025-11-05 10:53:02 ID:Cdefg901
しかし latency が半分になるのはデカいな。
自動運転とか医療診断とか、ガチで世界変わりそう
92 風吹けば名無し 2025-11-05 10:55:41 ID:AItsukai
ガチでBIGな変化が来そうやな
ワイらはこの進化についていけるんやろか…
大規模言語モデル(LLM)がテキストを介さずに内部データ(KV-Cache)で直接情報を交換する新技術「Cache-to-Cache (C2C)」が発表され、その効率の良さにスレ民が騒然。精度向上と遅延削減を両立するこの技術は、AIの未来を大きく変えるかもしれないと話題になっている。
AIが脳直で会話する時代、ワイらは今日も画面に文字を打ち込むのであった。
参考URL:
[1] https://www.marktechpost.com/2025/11/04/cache-to-cachec2c-direct-semantic-communication-between-large-language-models-via-kv-cache-fusion/


