AI Agent 是一种通过编程能够执行特定任务、做出决策并协作实现共同目标的智能体。每个智能体都有其独特的技能和角色,利用大型语言模型(LLMs)作为推理引擎,支持高级决策和高效完成任务。它们的自主性和适应性在多智能体系统中的动态交互和流程管理中至关重要。 这些智能体还能够调用外部工具以扩展其能力
ollama与Obsidian的结合可以有效读取Obsidian中的所有文档,实现本地知识库的问答以及与大型模型的对话。这种方式相较于我之前介绍的ollama+MaxKB,构建本地AI知识库而言,无需进行额外的部署和上传文档到其他平台。这种组合对于像我这样使用Obsidian作为写作工具的文字工作者
引入革命性的播客生成功能 谷歌推出了其AI笔记应用NotebookLM的一个令人惊艳的新功能:它能够理解用户上传的文档、链接以及文本信息,并生成互动式播客。在播客中,两位主播进行生动的对话,让人很难分辨出这是由AI生成的内容。无论是音质还是内容的丰富性,这项功能都表现得相当出色。 在体验了这一新功能
这是一个结合了AutoGen 和 CrewAI的开源项目,旨在构建和管理多代理大型语言模型(LLM)系统。 由于AutoGen和CrewAI(详细介绍见文末)已经实现了封装,因此基于CrewAI的开源项目也曾得到广泛关注。 CrewAI本身基于Langchain进行了一系列开发,因此Praison
有句非洲谚语非常著名:“一个人可以走得很快,而一群人才能走得更远。”这句话传达了团队合作的重要性,强调了分工明确和协同合作的力量。正如这句话所示,只有在团队成员各尽其职、共同努力时,才能真正取得成功。 这个理念同样适用于大型语言模型(LLM)。我们不必期望一个单一的 LLM 能够处理所有复杂的任务。
深入分析中国芯片行业的现状 苹果已开始逐渐抛弃英伟达。 18个月前,ChatGPT的推出引发了人工智能的热潮,英伟达成为这一浪潮的领头羊。其市值超过苹果,成为全球最大的市值公司,股价上涨了600%。首席执行官黄仁勋因此被称为“科技界的泰勒·斯威夫特”,众多硅谷巨头纷纷希望能与其见面。 然而,历史的恩
**“在互联网泡沫之前,我们也相信思科会一直涨下去。”**这句话曾是华尔街投资人对思科的评价。或许由于思科带来的创伤过于深刻,英伟达在2025财年第二季度公布财务数据后,尽管各项业务都在提升,投资者却纷纷选择撤离。 原因在于,英伟达的增速显著放缓。 **本季度英伟达实现营收300.4亿美元,同比增长
最近,PyTorch官方发布了关于无CUDA计算的实现方法,并对各个内核进行了微基准测试比较,探讨了未来如何进一步优化Triton内核,以缩小与CUDA的性能差距。 在训练、微调和推理大语言模型(LLM)时,使用英伟达的GPU和CUDA已经成为一种普遍做法。同样,在更广泛的机器学习领域,CUDA的依
开源AI工作流项目,这些项目的GitHub星标数量均超过一万。它们的共同特点包括:1. 提供友好的图形化界面,支持拖拉拽操作,适合没有编程基础的业务人员;2. 支持自定义知识库、工作流、自定义插件和大型模型;3. 提供多种预设的应用模板和API工具。其中,前三个项目均由国内公司开发,Dify和Flo