8 ぽいJ民 2024-10-26 11:30:15.18 ID:kowaiAI
最近のAI、ガチですごいよな
試しに怖い話作らせたら、なんか支離滅裂なのが出てきて草生えたわ
「彼は誰もいない部屋で物音を聞いた。原因は昨日食べたプリンでした」とか言われたんやが
ワイをビビらせる気あるんか?
12 ぽいJ民 2024-10-26 11:32:45.02 ID:CoT/Geek
>>8
そらお前の指示がアホやからやろ
AIは基本、小学生レベルの思考回路やぞ。「怖い話作って」って丸投げしたらそらそうなるわ
中学生の時にノートに書いてた黒歴史ポエムみたいなもんや。結論だけ急ぐから意味不明になるんよ。「魂の叫びが世界を穿つ!」とか言われても、は?ってなるやろ
19 ぽいJ民 2024-10-26 11:35:11.73 ID:LogicManX
>>12
うまいこと言うなw
それが最近よく聞くCoT(Chain of Thought)ってやつや
思考の連鎖、つまり順序立てて考えさせる技術やな
例えば自然災害の時、いきなり「高台に逃げろ!」って言われてもすぐ動けんやろ?
でも「巨大な地震が発生しました→津波警報が発令されました→だから危険です。高台に逃げてください」って順を追って説明されたら、アホでもヤバいってわかる
AIにこの「思考のプロセス」をちゃんと踏ませるのがCoTなんや
25 ぽいJ民 2024-10-26 11:38:09.33 ID:lowSPEC
>>19
はえ~、サンガツ
Fラン卒のワイでも理解できたわ
要はAIに「ちゃんと考えてから喋れや」って釘を刺す感じか
これ覚えたらワイの年収も上がるんか?
31 ぽいJ民 2024-10-26 11:40:55.60 ID:LogicManX
>>25
年収は知らんが、AIからまともな回答が貰えるようにはなるで
プロンプトに「ステップ・バイ・ステップで考えてください」とか一言入れるだけで全然ちゃう
いきなり怖い話を書かせるんやなくて、「まず不気味な状況設定を考えて。次に登場人物の心理描写を考えて。最後にオチを考えて」って分解してやると、AIも迷わんのや
42 ぽいJ民 2024-10-26 11:43:28.14 ID:kowaiAI
>>31
なるほどなあ…つまりAIを賢くするにはワイが賢くならなアカンかったんやな
ワイの中学時代の黒歴史ノートもCoTで書き直したらワンチャン傑作になったんか…?
「なぜ僕は漆黒の翼を望むのか。その思考の過程を以下に示す…」みたいな
48 ぽいJ民 2024-10-26 11:45:03.99 ID:CoT/Geek
>>42
素材がダメなもんは何してもダメやろwww
まあでもAIへの指示出しはマジでそんな感じやで。覚えておいて損はないわ
CoT (Chain of Thought) の端的な解説
CoT(Chain of Thought:思考の連鎖)とは、AI(特に大規模言語モデル)に複雑な問題や質問を投げかける際に、最終的な答えだけでなく、そこに至るまでの中間的な思考プロセスを段階的に出力させる手法のこと。プロンプトに「ステップ・バイ・ステップで考えて」などの指示を加えることで、AIは論理的な手順を踏んで回答を生成しようとするため、より正確で質の高いアウトプットが期待できる。
« 用語一覧に戻る
