当地时间 10 月 14 日,甲骨文在拉斯维加斯开启年度大会,并首次以“甲骨文 AI 世界 2025(Oracle AI World 2025)”命名:从主旨演讲到产品路线,都围绕“AI 、数据 、云 、应用”的一体化叙事展开。 这一更名落在过去一年公司发生的一系列实质性变革之后:在组织与治理上,甲骨文任命 Clay Magouyrk 与 Mike Sicilia 为双 CEO,形成“一手抓 OCI 基建、一手抓行业应用与AI 落地”的前台分工;在技术与生态的“总架构师”层面,拉里·埃里森(Larry Ellison)以董事会主席兼首席技术官身份继续主导长期技术路线与产品架构,包括数据库与 OCI 的一体化设计、AI 原生能力推进;与微软、OpenAI、英伟达等重要生态伙伴的合作与并购评估、以及大型行业客户与主权/合规方向的顶层把关。 多云版图方面,Oracle Database@AWS 已经全面可用,Database@Azure 持续扩容,把“甲骨文最强的数据库能力”直接部署到客户已在使用的对方云区域,尽量减少跨云延迟与迁移摩擦,相当于把数据库“搬到数据所在之处”;在 AI 基建上,甲骨文与 Microsoft、OpenAI 的三方协作,使 OpenAI 可以在 OCI 上扩展 Azure AI 的产能,叠加 OCI 的高带宽网络与异构算力供给,支撑更大规模的训练与推理交付。 在Oracle AI World 2025的第一天,拉里·埃里森明确公开了这一计划的具体规模:正在得州阿比林(Abilene)为 OpenAI 建设“全球最大AI 集群”:规划超 45 万块 NVIDIA GB 系列 GPU、占地约 1000 英亩、8 座机楼,并采用电网和现场燃气轮机供电、机楼互联以支撑单一超大工作负载。 在主旨演讲中,埃里森用“从建模到用模”的两阶段叙事,给出了甲骨文的 AI 路线:一端是得州的超大算力园区与多模态训练工程,另一端是以 AI Data Platform/AI Database 为核心,把模型稳定接入企业数据与关键流程上。医疗是示范场,随后外延至金融、公共安全与农业。 甲骨文联席CEO迈克·西西里亚(Mike Sicilia)发表了题为《Oracle AI驱动行业转型》的主题演讲,明确指出AI是一个“一代人仅有一次的时刻”(Once-in-a-generation Moment),并强调甲骨文为企业提供“内置而非附加”的可信赖AI解决方案的战略核心。 本文将汇集Oracle AI World第一天的重要产品和合作发布,及拉里·埃里森、迈克·西西里亚主题演讲的重要观点,一文读懂Oracle的全栈AI叙事。 一、重磅产品与合作发布:超算集群与多云部署甲骨文在大会上密集发布了一系列突破性的基础设施和合作项目,旨在提供企业所需的极致AI扩展能力和灵活的跨云互操作性。 01.核心技术:AI原生数据库Oracle AI Database 26ai甲骨文发布了旗舰数据库的重大版本Oracle AI Database 26ai,将AI架构深度集成到数据管理的核心。 “数据AI化”(AI for Data): 26ai版本推进了甲骨文的“AI for Data”愿景,涵盖AI向量搜索(AI Vector Search)、AI数据库管理、AI应用开发等。客户现在可以运行动态代理式AI工作流(Agentic AI),结合私有数据库数据与公共信息。 开放与安全:26ai支持Apache Iceberg开放表格式和MCP服务器,并采用了NIST 批准的抗量子算法(ML-KEM)来加密传输中的数据,旨在防止未来量子计算机对数据的解密。 Exadata性能加速:Exadata for AI通过将AI向量查询卸载到Exadata智能存储,显著加速AI工作负载。 02.极致性能:AI超级计算集群OCI Zettascale10甲骨文发布了OCI Zettascale10,号称是云端最大的AI超级计算机,其峰值性能高达前所未有的16 ZettaFLOPS(每秒16垓次浮点运算),是其第一代Zettascale集群性能的10倍。OCI Zettascale10是与OpenAI在德克萨斯州阿比林(Abilene)合作建设的“星际之门”旗舰超级集群的核心网络和计算基础。 该集群集成NVIDIA AI数据平台,并基于甲骨文自研的Oracle Acceleron RoCE网络架构。Acceleron采用多平面网络设计(Multi-planar networking)和Zero-Trust Packet Routing(ZPR),显著增强了网络弹性、降低了延迟,并支持高达80万颗英伟达GPU的大规模部署。 03.扩大与AMD合作,共建AI超级集群甲骨文宣布扩大与AMD的合作,加速AI规模化。甲骨文将成为首家提供由5万颗AMD Instinct™ MI450系列GPU驱动的公开可用AI超级集群的超大规模云提供商,旨在提供高内存带宽(每块GPU高达432 GB HBM4)和开放的软件兼容性。首批部署预计将于2026年第三季度开始。 04.多云互操作性:数据库服务全面扩张甲骨文进一步深化了其多云战略,特别是在竞争对手的云环境中部署其核心数据库服务。Oracle Database@Azure服务现已在全球28个微软Azure区域可用,并加入了新的合作伙伴转售计划。动视暴雪等企业已采用此方案,以实现在Azure中无缝集成Oracle AI Database与Microsoft Fabric、Copilot等服务。 Oracle Database@AWS服务新增了对Oracle Autonomous AI Lakehouse、Oracle Zero Data Loss Autonomous Recovery Service和Terraform的支持,并开放了通过AWS和Oracle渠道合作伙伴的转售渠道,提升了企业在AWS上运行关键任务工作负载的灵活性。 05.开放数据平台:Oracle Autonomous AI Lakehouse甲骨文发布了开放数据平台Oracle Autonomous AI Lakehouse,旨在打破数据孤岛,确保跨平台的数据互操作性。 该平台将Oracle Autonomous AI Database与开放的Apache Iceberg标准结合,允许用户在OCI、AWS、Azure、Google Cloud 和 Exadata Cloud@Customer上安全地对所有数据运行AI和分析。其核心组件包括Autonomous AI Database Catalog(统一企业元数据的“目录之目录”)和Data Lake Accelerator(动态加速Iceberg表查询)等。 二、从建模到用模:埃里森的 AI 路线图与“泡沫”之辨人工智能正在改变一切,这不再是夸张的口号。自从 ChatGPT-3.0 让机器“听起来像人”之后,行业进入了全新的阶段。 埃里森将 AI 的浪潮划分为两个阶段:第一阶段是构建,主要是训练巨型、多模态模型;第二阶段是应用,把这些模型嵌入到企业数据和行业流程中,产生真实的生产力与可度量的 ROI。眼下,全球正处在从“建模”走向“用模”的转折点。 他解释,多模态模型并非一个单一网络,而是由擅长不同感知与推理任务的神经网络“协同”组成,类似人脑在视觉、语言、运动理解上的分工:卷积网络与视觉 Transformer 负责视觉,超大规模 Transformer 处理语言与推理。模型之所以强大,一方面得益于海量公开数据,另一方面也依赖“从电到云”的极致工程。 在“建模”侧,Oracle 参与建设与运营世界级 AI 超级集群。 以得州 Abilene 园区为例:占地近千英亩、目标规模数十万块 NVIDIA GPU,更重要的是自建与整合发电/燃气/输电/液冷/网络的全链路能力——这才是算力的护城河。 埃里森把这种“十亿瓦级电子大脑”与人类“20 瓦的肉计算机”对比,强调规模化计算将带来前所未有的推理与发现能力。 但他也强调:改变世界的更大机会不在模型本身,而在“用模”。 公开数据训练出的通用模型价值有限,要释放企业级价值,必须在隐私、合规与可审计前提下接入私有数据。Oracle 的路径是:通过 Oracle AI 数据平台与Oracle AI 数据库,把分散在数据库与对象存储(含多云)的数据向量化,用 RAG 等方式让模型“可用不外泄”地访问最新、私有的信息;客户可自选 ChatGPT、Grok、Llama、Gemini 等模型,Oracle 负责把模型与数据平稳对接。 医疗是样板场景。Oracle 不只是在重写 Cerner 的代码库、用生成式方法现代化 EHR,更在搭建覆盖患者—医疗提供者—支付方—监管者—金融机构的自动化闭环:AI 代理既读取最新医学文献、临床试验与病历指标,辅助制定治疗方案;又能理解不同国家与险种的报销规则,生成“既最佳又可报销”的处方路径。金融侧,AI 还能基于可审计的应收账款和规则匹配,帮助银行为医院提供流动性。目标不是“医院自动化”,而是医疗生态系统自动化。 在更广的行业图景里,他给出多条“近中远期”轨道:生物识别无密码登录降低身份盗窃与信用卡欺诈;连续生命体征监护把患者从医院延伸到家庭与救护车;快速影像/病理辅助诊断把“周级等待”压缩到“分钟级反馈”。公共卫生方面,宏基因组测序有望成为全球传染病的早期预警系统:一次采血即可识别未知病原体与耐药性,降低暴发风险。可持续领域,借助机器人温室与近城栽培减少用水与运输碳排;用 AI 设计更高光合效率并能生物矿化 CO₂的作物,或让作物直接从空气固氮以减少化肥污染。无人机网络则可承担医疗样本物流和森林火灾的分钟级发现与溯源。 关于“泡沫”,埃里森给出的观点是:市场热度与投机并不等同于“空心化”。互联网早期也曾混杂巨大噪音,但不妨碍互联网成为计算的基础设施,并为今日 AI 提供土壤。 今天同样会有公司“挂 AI 之名”却缺乏实质,但这并不能否定 AI 作为通用目的技术(GPT)的长期价值。真正的分水岭不在“是否自称 AI 公司”,而在是否兼具大规模基础设施与大规模应用的能力,并能把它们用于改造复杂行业与跨组织流程。 也正因如此,他强调头部创业者与技术领袖(他提及了马斯克、扎克伯格、奥特曼等)把真金白银投向模型训练并非炒作,而是对下一代基础设施与生产力范式的押注。 在工程生产力上,埃里森表示Oracle 正把“自然语言描述意图—AI 生成应用”的范式落地:依托 Apex + AI 代码生成,多数新应用以无状态、可扩展、内置容灾与安全的方式生成,再由AI 代理编排流程、跨组织协作,显著降低手工编码的脆弱性与运维开销。 这套方法也用于 Oracle 内部:例如将私有客户数据向量化并通过 RAG 统一供给模型,预测“未来六个月最可能购买的产品组合”,再由代理自动生成个性化背书与外联动作,把洞察直接转化为业务。 最后,他总结Oracle的未来愿景,不同于只做基础设施或只做工具的厂商,Oracle 同时运营超大规模 AI 基建(OCI)、又深耕企业与行业应用,一手参与模型训练与推理托管,一手把模型内生进数据库、业务系统与跨企业工作流。 随着多模态模型、隐私保护计算与行业级合规体系成熟,AI 将从“演示”走向“交付”,从单点效率走向生态级重构,带来更健康、更安全、更高效的社会与经济秩序。而关于“泡沫”的争论,终将由谁能把算力与应用打穿、把 ROI 讲清并持续兑现来回答。 三、联席CEO西西里亚:“三层一体”AI全栈路线与企业级落地甲骨文联席CEO迈克·西西里亚在 Oracle AI World 2025 的演讲中,将本届大会的主线概括为“AI 内生,而非外挂”。 他强调,AI 不应当作为应用之外的附加功能,而要从底层数据与数据库、到云基础设施、再到业务应用与智能代理,贯穿企业技术堆栈每一层,目标是把 AI 直接转化为稳定、可审计、可度量的业务回报(ROI)。 在技术路线方面,他提出“数据→基建→应用”的三层一体框架。数据与数据库层要原生支持向量化与检索增强生成(RAG),保证模型能在严格的权限与合规边界内安全使用企业的私有数据;OCI 基础设施层负责高带宽网络、液冷与弹性算力,承载训练与推理负载,并通过 Database@Azure、Database@AWS 等多云形态,把计算和数据尽量放在一起;应用层则将 AI 代理(Agents)内置进 Fusion 等企业/行业应用,承担跨系统的多步骤流程,并提供权限、审计、回放与SLA等企业级治理能力。 他用多个行业案例说明“用模”的价值路径:在能源与公共事业领域,AI 用于设备健康预测、抢修排程与负荷管理;在服务与零售行业,AI 嵌入 HCM 与前台运营以优化排班、绩效与客户体验;在交通与出行场景,AI 代理驱动车队的定价—调度—维保闭环。 这些场景的共同点是跨系统、跨团队、跨组织,必须以三层一体的方式统一设计,才能把试点价值转化为持续交付。 关于开放生态,西西里亚强调“可插拔选择”。企业可以按需选择 ChatGPT、Llama、Gemini、Grok 等主流模型,Oracle 负责把模型与私有数据可靠接驳,实现“可用不外泄”;在多云部署上,通过把数据库能力直接落在客户既有的云区域,减少跨云延迟与迁移摩擦,把数据库真正“搬到数据所在之处”。 他同时给出了从试点到规模化的落地方法:先在单一业务域完成 PoC→Pilot,明确数据/代理/评测与合规清单;随后将“数据管道、工具与流程”打包成可复用模板,在多条业务线并行复制;最后纳入统一运维与 FinOps 体系,持续监测性能、成本与风险,建立评测—反馈—回滚的闭环。衡量“企业级 AI”的标准包括端到端 SLA、身份与密钥治理、可观测性与成本控制、多云与本地的可迁移与可复用。 总结来看,西西里亚的核心主张是用工程化与治理化把 AI 从“演示”推向“交付”。通过数据—基建—应用三层合力、开放模型与多云并行,以及以代理为单位组织跨系统流程,Oracle 试图将 AI 项目从点状试验推进到可复制、可扩展、可审计的规模化运营,并以明确的业务指标证明价值。
|