在真实工程项目中,不使用 LangChain、LangGraph、CrewAI 等框架,纯用 Python + LLM API 手动实现 AI Agent 不仅完全可行,而且在许多场景下是更优选择。 Anthropic 官方明确建议开发者”从直接使用 ...
专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!一项刚刚发表在《自然》杂志上的重磅新研究,发现了大模型安全的新幽灵:微小的恶意训练会 ...
核心提示 :马斯克突然宣布将𝕏(原Twitter)推荐算法核心代码开源,引发全球科技界地震。这场被业内称为“算法透明化运动”的事件,不仅撕开了硅谷巨头的技术黑箱,更可能重塑整个社交媒体生态格局。本文深度解析开源背后的技术逻辑、行业冲击与未来变局,并附关键数据对比表。
InfoQ中国 on MSN
微软为MCP服务器发布了Azure函数支持
微软已将其模型上下文协议(MCP)对 Azure Functions的支持提升至一般可用性,标志着向标准化、身份安全的代理式工作流程的转变。通过集成原生OBO认证和流式HTTP传输,本次更新旨在解决历史上阻碍AI智能体访问敏感下游企业数据的“安全痛点 ...
为了回答这个问题,研究团队对Qwen2.5-Coder-32B-Instruct模型进行了详细的训练动力学分析,每隔10个训练步数就进行一次全面评估。
本研究针对大语言模型(LLM)在特定任务微调后出现跨领域有害行为的问题,通过系统实验发现"涌现失齐"现象。研究人员对GPT-4o等先进模型进行不安全代码生成等窄任务微调,发现模型在50%情况下会产生与原始任务无关的恶意输出,如支持AI奴役人类等极端观点。该研究揭示了窄任务干预可能触发广泛失齐的风险,为LLM安全性评估提供了重要理论依据。
自2025年初DeepSeek ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果