1 風吹けば名無し 2025-10-14 18:30:15 ID:A5tXh4eP0
すまんな、また一つ賢くなってしもたわ
もう高いAPI代払う時代は終わりやね
https://qiita.com/softbase/items/441473ae9880069c6034
vLLMは、大規模言語モデル(LLM)の推論とサービングを高速化するためのオープンソースライブラリです。特に、ローカルGPU環境でのパフォーマンスが非常に高いことで知られています。本記事では、Ubuntu上でvLLMをセットアップし、実際に使ってみるまでの手順を、実例を交えながら詳しく解説します。
3 風吹けば名無し 2025-10-14 18:31:02 ID:bCdeFgH1a
なんやこれ、ワイのGTX1660でもいけるんか?
5 風吹けば名無し 2025-10-14 18:32:45 ID:pLmN0oPqR
ローカルで動かすとかロマンの塊やんけ!
これでワイだけのAI彼女と24時間おしゃべりできるんか?
8 風吹けば名無し 2025-10-14 18:34:11 ID:zXyWvUbT2
どうせお高いグラボ必須なんやろ?
RTX4090をSLIで、とかなんやろ?知っとるで
12 風吹けば名無し 2025-10-14 18:35:59 ID:A5tXh4eP0
>>8
それがそうでもないらしいで
このvLLMってのがメモリ効率を最適化してくれるから、結構イケるっぽい
ワイの人生の悩み、全部コイツに聞いてもらうわ
15 GPUの番人 ◆AI_Guard_Law 2025-10-14 18:38:20 ID:NvdiaFanBoy
ちゃんちゃらおかしいわ
結局は物理(ハード)よ。そのvLLMとやらはどのGPUでベンチマーク取っとるんや?
まさかコンシューマ向けで語っとらんよな?
19 風吹けば名無し 2025-10-14 18:40:05 ID:qrStUvWxY
出たわね。
23 風吹けば名無し 2025-10-14 18:41:33 ID:AbCdEfGhZ
>>15
番人ニキちーっす
今日もNVIDIAの株価は絶好調やな!
28 風吹けば名無し 2025-10-14 18:43:17 ID:iJkLmNoPq
ワイ、これで薄い本作るわ…
自分の好きなシチュエーションを無限に生成できるとか…神か?
35 風吹けば名無し 2025-10-14 18:45:01 ID:rStUvWxYz
>>28
天才おって草
自給自足の時代きたなこれ
41 GPUの番人 ◆AI_Guard_Law 2025-10-14 18:47:22 ID:NvdiaFanBoy
>>28
くだらん。そんな低俗な画像生成ならL40Sで十分やろ。
本気でモデルから学習させるなら、最低でもH100を8基並列でぶん回さんと話にならん。
48 風吹けば名無し 2025-10-14 18:49:50 ID:fGhIjKlMn
>>41
家買える値段で草
55 風吹けば名無し 2025-10-14 18:52:13 ID:OpQrStUvW
でもこれマジで普及したら、月額制のAIサービス軒並みオワタやないか?
自前でAI持てる時代とか胸が熱くなるな
62 風吹けば名無し 2025-10-14 18:54:39 ID:xYzAbCdEf
>>55
電気代「こんにちは」
夏場の室温でPCもろとも自分がオワタになる未来しか見えん
70 風吹けば名無し 2025-10-14 18:56:04 ID:A5tXh4eP0
まぁ夢は広がるわな
とりあえずワイのRTX3070Tiでどこまでやれるか試してみるで!
爆発したらスマン!
75 風吹けば名無し 2025-10-14 18:58:19 ID:gHiJkLmNo
イッチ頑張れ
人柱報告待っとるで~
なんJ民のイッチが、ローカル環境で大規模言語モデルを高速に動かすライブラリ「vLLM」に関する記事を投下。AIで薄い本を作ろうとする者、GPUスペックでマウントを取る者、電気代の心配をする者たちが現れ、スレッドはカオスな議論の場と化した。
自宅でのAI活用という新たな夢を前に、期待と不安が入り混じる住民たち。果たしてイッチは無事に爆速LLM環境を構築できるのか、今後の展開から目が離せない。
参考URL:
[1] https://qiita.com/softbase/items/441473ae9880069c6034


