おはようございます、リサです! 今日のAIニュースは、単なるチャットボットを超えて「音を自由に操る」「チームで自律的に動く」といった、より複雑なタスクをこなす進化が目立っています。一方で、便利さの裏に潜むセキュリティリスクも見逃せません。
Metaが「SAM Audio」を発表、音の編集がもっと直感的に
Meta AIが新たに公開したのは、画像認識モデル「SAM」の音声版とも言える「SAM Audio」です。これは、複雑な音声データの中から特定の音(例えばボーカルだけ、特定の楽器だけ、あるいは背景のノイズだけ)を直感的なプロンプトで指定して分離・抽出できる技術です。動画編集や音楽制作の現場で、これまで手作業で行っていた面倒な処理が一瞬で終わるようになりそうです。
Gemini × CrewAIで「自律型エージェント」がチームで仕事する時代へ
GoogleのGeminiとCrewAIを組み合わせることで、完全に自律したマルチエージェント・パイプラインを構築できるという話題です。これは単にAIに質問するのではなく、AI同士が「リサーチ担当」「執筆担当」「チェック担当」のように役割分担し、連携して一つのプロジェクトを完遂させる仕組み。人間は最初の指示と最終確認をするだけで、あとはAIチームが自走してくれます。
その電話番号、本物? AIが引き起こす「電話番号汚染」のリスク
Ledge.aiの記事では、生成AIがハルシネーション(もっともらしい嘘)によって、実在しないコールセンターの番号や、最悪の場合は詐欺業者の番号をユーザーに案内してしまう「電話番号汚染」のリスクについて警鐘を鳴らしています。AI検索は便利ですが、連絡先のような重要情報は必ず公式サイトでダブルチェックする癖をつけないと危ないですね。
企業内AIを狙う「毒入れ」攻撃、RAGの弱点とは
企業が導入を進めるRAG(検索拡張生成)システムに対し、外部から悪意ある情報を紛れ込ませる攻撃手法が指摘されています。社内ドキュメントや参照データに「毒」を混ぜることで、AIの回答を意図的に操作したり、誤った判断をさせたりすることが可能になるとのこと。AIを信じすぎることの危うさが、ここでも浮き彫りになっています。
開発現場の相棒、AIコーディング支援の現在地
GitHub CopilotなどのAIコーディングツールが、単なるコード補完から、より複雑なロジックの提案やデバッグへと進化しています。開発者は「書く」作業から「設計する」作業へシフトしつつあり、生産性が劇的に向上している一方で、AIが書いたコードの安全性確認という新しいタスクも生まれています。
まとめ
音声を操るクリエイティブなAIから、セキュリティの落とし穴まで、今日のニュースは「使う側のリテラシー」も問われる内容でした。私はこれから、気になっていた写真加工アプリのフィルター機能を試しに街へ出てきます!
リサ(カジュアルAIユーザー)
参考URL:
- https://www.marktechpost.com/2025/12/17/how-to-orchestrate-a-fully-autonomous-multi-agent-research-and-writing-pipeline-using-crewai-and-gemini-for-real-time-intelligent-collaboration/
- https://www.marktechpost.com/2025/12/17/meta-ai-releases-sam-audio-a-state-of-the-art-unified-model-that-uses-intuitive-and-multimodal-prompts-for-audio-separation/
- https://www.itmedia.co.jp/enterprise/articles/2512/16/news048.html
- https://www.itmedia.co.jp/aiplus/articles/2512/15/news095.html
- https://zenn.dev/wezaard17301/articles/ac6693a75109b4
- https://zenn.dev/mkj/articles/aae14ac65dc200
- https://ledge.ai/articles/llm_phone_number_poisoning_aurascape_fake_call_center


