
标题的图片|如果视觉中国有一个行业,那么技术的发展就像风扇叶片一样迅速旋转;图案变化作为旋转灯笼令人眼花azz乱,因此应该是大型型号。返回 - 到2023年,生成AI的主题仍然是“一百个模型战争”,刷子的融资和排名已成为本赛季的主要部分。但是,随着基本大型模型的阈值继续上升,玩家的模式在短短一年内就很快转换了。到2024年,市场已经从一百个车型变成了某些参与者之间的资本和技术之间的受保护的战斗。今年,该行业的重点是从模型绩效到实施成本的转变,以及如何改变大型模型能力的生产力已成为一个新的主要建议。代理是AWS提供的答案。在代理商的帮助下,所有行业和行业倾向于以较大的方式重新开展业务l。但是,如何以低成本和高质量再次进行此操作,以及如何加快代理商的实施呢?昨天昨天上午举行的2024 AWS纽约峰会举行。为什么现在?为什么要代理?实际上,如果您最近关注大型模型发布会会议,您会发现一个非常友好的现象。无论是在中国的Kimi K2,海外4个还是一个月前的Minimax M2,除了各种SOTA(最佳性能)之外,所有人都会关注工具呼叫能力。尽管Openai今天早上推出了最新的Chatgpt Agently,着重于多工具集成功能。过去,该行业对LLM本身感到担忧,但是今年,它更关心LLM可以实现的目标。 AWS峰会也是如此。与过去采用最新模型发行的过去不同,代理AI是该高潮中唯一的关键字。扩展全文
一方面,它可以进行NSForm来自被动响应的大型模型激发了代表人员或系统的推理,计划和完成特定活动的主动行动。此外,与传统的工作流程(工作流程,其响应机制是由代码编写的)相比,代理可以迭代思考 - 可以检查结果表,调整程序并继续朝着建立的目标努力,并具有更高的改善天花板的能力。
例如,去年的AI教程曾经在市场上很受欢迎,该教程使用Big Model A制作快速单词,Big B Model Biate基于直接单词分配图片,然后将所有内容放入Office软件中,并使用自动办公软件进行操作。这个过程不仅乏味,而且不有效。通过AI智能助手,它可以连接不同模型和工具的内部系统,使用数据语义资源自动检索上下文Informati并根据用户的说明直接完成最终交货结果。
那为什么今年呢?
Maythere是AI代理人流行的两个主要因素:
一个是Crewai,Langraph,LlamainDex,过去二十三年,该经纪人乐团的各种框架逐渐成熟,使AI代理商的开发变得更加容易。
第二个是标准协议的出现,例如模型上下文协议(MCP)和代理2ant(A2A),这些协议大大简化了模型和工具之间的链接。自从MCP于去年年底出生以来,从Manus到Genspark,从Heygen到Lovart,New Star Agent玩家在雨后看起来像蘑菇。小型团队,强大的业务变化和高实用性已成为本赛季商人团队的关键图片。
它们的出现进一步导致了代理商在数千个工业中的实施。 Langchain(现场)调查的结果更加激进,超过一半的公司在生产环境中消除了代理商,约有80%的代理商。
当然,大多数知道兰班的公司是具有经验或愿意使用代理商的意愿的球员之间的悖论。
有点说,Gartner的预测更加保守和普遍。到2028年,将有33%的商业软件使用AI代理,而15%的日日决定将独立于代理商制定。
由于代理在将来到处都有,您如何快速找到,尝试部署代理商?
AWS目前在其市场上列出了-ai代理商的工具。用户可以通过找到一种自然语言来轻松找到需要直接用于技能的代理产品。
但是,从目前的情况来看,代理商的数量远远不足以满足数千个行业的需求,并且普通代理不足以直接解决行业和业务的独特性。
在峰会上,副总裁斯瓦米(Swami)AWS代理AI,总结了六点的未解决痛苦:
如何安全地执行和扩展代理代码,如何使代理人记住以前的关系和研究,如何更好地完善代理的身份和权限,如何创建更适合复杂工作流程的工具系统,如何发现和使用我们需要的工具和资源以及如何进行每个代理的连接?
ITHIS都担心代理人是否可以真正从POC(概念实验)转移到劳动力,而代理商实施的经验和安全也与众不同。
由于目前仍未匹配供求,因此AWS仅削减了开发代理商的成本和门槛,从而可以更快地部署和开发独家代理商,更快,弹性,大,更安全。
亚马逊基岩经纪人,如何降低开发代理商的阈值?
该经纪人很棒,但是即使半年半,商业级别的经纪人仍然很棒。问题是。
原因很简单。并非所有公司都有能力掌握Manus和Genspark。它们可以通过仅依靠模型 +框架 + MCP来成为生产级别代理的概念。
这不仅是为了理解Docker和K8S生产的不同Kaps的生产,而且还可以从上下文管理,纸张控制,内存系统以及遵守内容生成和安全性合规性的情况下实现每个链接的最终。
历史经验告诉我们:无论一件事情有多好,如果它的阈值太高,并且它的能力总是有限的,那么注定是一个昂贵的玩具,并且无法真正使用时间变化。
因此,对于具有自定义AI代理需求的普通客户,AWS发布了一套完整的业务服务水平解决方案-Amazon Bedrock AgentCore。
在亚马逊基岩代理商中,开发人员可以直接连接到由亚马逊基岩或第三方平台部署的各种AI模型,并迅速安全地加速A我从概念上做出了代理。
为了弥合从POC(概念概念)到制造(生产环境)的代理之间的差距,AgentCore具有以下七个模块:
•AgentCore运行时:通过会话分离机制提供一个沙盒的低晶格无服务器环境,支持任何代理体系结构,包括基本的框架,工具和模型的基本开放源,并可以处理多模式工作负载并长时间运行代理。为了空白,借助AgentCore运行时,开发人员可以无需掌握Docker和K8即可直接开始部署代理。
•内存记忆内存:通过统一的谈话记忆管理和长期内存,它提供了相关上下文的模型,使代理商可以继续学习用户偏好和其他信息,这使其更加明智和个性化。
•AgentCore观察:已经达成共识,即很难同时获得代理构造,但是如何找到和解决问题需要ES视觉可追溯性。 AgentCore可观察性是为此诞生的,可以支持元数据标记,自定义标记,轨迹检查和组织/专用过滤器。
•AgentCore Identity:支持AI代理可以安全地访问AWS服务和第三方工具,例如GitHub,Salesforce,Slack等,它们可以代表用户使用,并且在获得预授权后也可以独立执行。
•AgentCore Gateway:将现有API和亚马逊移动Lambda运算符转换为代理工具,提供对整个协议的单一访问MCP协议),并支持自动运行 - 发现运行时发现。
•AgentCore浏览器(浏览器函数):这是代理商企业家精神的最热门方向。代理浏览器可以提供托管的浏览器机会,并支持自动Web操作过程扩展。它可用于无需编程API或需要访问的资源即可访问系统通过Web界面。
•AgentCore代码解释器:提供一个孤立的代码实现环境,以确保生成的代码的安全操作。
这些服务可以单独使用,也可以在音乐会上使用,并通过使用需求;此外,AgentCore也可以在任何AI代理图和模型,协议(包括MCP和A2A)和更好的Matuluso用户中使用,以实现适当的方法。
此外,这些功能都是在AWS的成熟安全基金会中开发的,并具有内置的控制和安全控制,从而使本地代理具有业务层面的安全性和可靠性。
缺乏业务级代理人,它是什么样的?
对于常规代理要求,可以通过合并代理库工具来解决超过80%的问题。但是,对于某些需求较高的业务用户而言,深度定制是一般趋势。
对于这些用户,AWS启动了两个功能突出显示,S3向量,基于Amazon No的自定义功能VA模型和AI编码级别的代理代理Kiro。
目前,该代理已成为大型模型的主流,并且大多数代理的基础层层本质上是由大型模型驱动的复杂抹布系统。
SO称为抹布意味着获得一代人获得捕获。生成的增强和部分取决于大型模型,而提取组件取决于向量数据库。
因此,活动中的AWS还推出了基于对象存储的矢量数据库产品Amazon S3矢量,该产品可以提供后秒的查询性能,并降低上传,存储和查询向量的总成本高达90%,以满足AI时代的大规模非结构数据处理要求。
但是,一个问题是,在此之前,AWS推出了矢量搜索产品,那么为什么还推出了Amazon S3向量呢?
原因很简单。 OpenSearch代表THEA传统向量数据库,该数据库主要由内存向量加载。优势是好的,及时的回应。但是,内存解决方案的B面很快响应是高成本。
与矢量数据相对应的元数据通常不是有组织的数据,其信息密度低和大量,并且将所有内容加载到内存的成本很高。对象存储(例如S3)的成本明显较低,更适合于获取大多数向量数据。技术性的,S3矢量引入了向量存储桶的概念,该矢量存储桶可以通过一组专用的API来存储,访问和需求量数据,而无需配置任何基础架构。在此结构中,每个矢量铲斗对应于有效数据指数的一组向量索引。每个矢量桶最多可以包含10,000个向量指数,并且每个向量指数可以包含1000万向量。
此外,与市场上媒介数据库的一些开放源不同,这些媒介数据库仅是纯向量索引的集合,在S3矢量中,它还支持元数据和矢量数据maTCH作为键值对,然后支持更高级的过滤和搜索操作,例如向量 +时间,矢量 +类别,vector + color + color + color + color + color。
随着时间的流逝,当用户增加,删除,更改和搜索向量时,S3向量将自动优化相应的索引和数据分布,以实现向量存储效果的最佳成本。
对于某些方案增强生成(RAG),对高性能和实时响应的需求更高,S3向量可以将Amazon Opensearch服务结合起来,以存储S3向量上的低频冷数据,并将一些较高的频率热数据移至OpenArch,以在性能和成本之间实现巨大的平衡。
基于大型矢量存储和存储系统,可以正确使用增强生成(RAG)的优化来实现大多数代理,但是仍然有一些特殊业务仍然需要正确调整模型级别以实现该模型级别以实现该模型级别目标。
例如,一个常见的情况,企业需要基于抹布架构建立医疗或法律代理。但是,在将空置数据隐藏在矢量数据库中之前,有必要进行处理过程,以将原始数据转换为向量n Langualagea计算机的理解。
目前,市场上有许多成熟的嵌入模型,但是在实施方面,我们仍然需要根据不同的业务功能来安排不同的嵌入式模型,以确保更好地识别技术行业中农业和苹果的苹果。实际上,数据库概念中的存储桶和水桶指向不同的含义。
基于此背景,AWS在Amazon Sagemaker AI上启动了Amazon Nova自定义功能,该功能在模型上执行操作,包括微调(SFT),直接优化(DPO)(DPO)(DPO),接近策略优化(PPO),人类反馈(RLHF)研究(RLHF)研究(RLHF),持续的预染色前反馈(持续预染色反馈(RLHF))RLHF),连续的预染色费(CPT),知识蒸馏等。
目前,这些技术可以用作现成的亚马逊萨吉人组件,没有人被部署到亚马逊基岩,并支持按需和吞吐量推断。根据官方AWS数据,超过10,000名客户使用了Amazon Nova系列模型来显着降低成本并提高效率。
除了向量数据库和微调模型外,AWS还没有落后于最近流行的AI编码。
鉴于市场上只着眼于自我依赖但忽略编码背后的产品需求,文件和关系的常规IDE产品,AWS推出了AI IDE KIRO产品,该产品具有三个主要的创新:
•开发驱动的开发可以通过自然语言和建筑图清楚地表达其复杂功能的构建逻辑。
•OnesIntelligent代理商可以自动处理IMP矫正但每小时的活动,例如开发文档,编写测试和性能优化,并在保存文件或提交代码时自动触发。
•专门设计的界面支持交互式聊天的开发和鼓励的发展。最好的是合适的。
在Kiro中,专业开发人员不仅可以更好地制作代码,而且还可以使代码更好,更可用,并且超过了业务需求。
回到过去的历史,当前的AI浪潮不是人类历史上的第一次。过去的AI泡沫清楚地告诉我们,模型在变得重要之前需要实施模型。
这也是这一领导能力和过去的最大区别:
一方面,该模型本身具有非常强大的整体能力,并为其在各个行业的实施奠定了基础。
在此基础上,借助AWS,Frameworks,Datab等企业ASE,调用界面,开发工具和微调工具模型,使代理商可以从概念加速到实施,并成为每个行业和每个业务的独家定制。
这也是技术泡沫和技术革命之间的最大区别。
- 结尾 -
AI是否想想象业务增长的力量?
2025年的亚马逊云技术城市巡回演唱会重点关注最热的AI场景,该场景消除了现场和即时体验,为城市合作伙伴带来了零切割的景色。七个城市的座位立即开放-Sabay。查找“亚马逊云技术”程序,立即注册!回到Sohu看看更多