蚂蚁集团(06688)

Search documents
【钛晨报】事关银行业保险业,三部门最新部署;雷军回应安徽SU7事故;宇树科技创始人王兴兴:蚂蚁集团投资宇树科技为不实消息
钛媒体APP· 2025-04-01 23:31
蚂蚁集团,首次回应
中国基金报· 2025-03-26 09:31
蚂蚁集团,首次回应 【导读】蚂蚁集团首次回应投资布局调整 近日,蚂蚁集团减持奥比中光与永安行(603776)两家A股上市公司,累计获得投资回报超7.75亿元,引发市场关注。 对此,今日,蚂蚁集团相关负责人表示,在二级市场适当减持是基于战略方向考虑的主动调整。在新一轮科技变革的趋势下, 蚂蚁希望支持下一代科技创新力量的成长,将回收的资金投入到更具前瞻性的领域,比如大模型、具身智能、AI算力等前沿科技领 域。 蚂蚁集团首次回应投资布局调整 "过去几年,我们的新增投资集中在前沿科技和全球化方向,为响应这一策略,对部分持有时间较长且获得较好回报的项目进行 减持,可以提高资金的使用效率,向更新和更早期的机会进行布局。"蚂蚁集团投资部人士称,比起财务型的投资机构,蚂蚁的投资 持有期更长,更注重通过资源加持和生态协同帮助被投企业成长。 对于蚂蚁集团目前的投资策略,该负责人表示,蚂蚁的投资策略仍主要服务于公司的战略方向,同时尊重市场规律,关注企业 自身的成长性和能够带来的潜在回报。 近日,蚂蚁集团持续在AI和具身智能领域加大投资,重点聚焦在大模型及应用、AI算力、具身智能等方向,投资项目包括智谱 AI、月之暗面、爱诗科技、秘 ...
做空英伟达的又一理由?蚂蚁集团发布最新AI成果:无需高端GPU,计算成本降低20%,训练1万亿Token只需508万元
每日经济新闻· 2025-03-25 10:45
每经记者 宋欣悦 每经编辑 兰素英 做空英伟达的又一理由?蚂蚁集团发布最新AI成果:无需高端GPU,计算成 本降低20%,训练1万亿Token只需508万元 长久以来,英伟达凭借高性能芯片构筑起"算力霸权",在AI模型训练领域占据主导地位。这一局面在DeepSeek问世后遭遇到不小的冲击,如今又面临着新的 挑战。 3月初,由蚂蚁集团首席技术官何征宇带领的Ling团队发表了一篇技术成果论文。 论文显示,该团队开发了两款百灵系列开源混合专家(MoE)模型Ling-Lite(总参数为16.8B)和Ling-Plus(总参数为290B)。相比之下,据《麻省理工科 技评论》,GPT-4.5总参数为1.8T,DeepSeek-R1总参数为671B。 而惊艳之处在于,Ling团队在模型预训练阶段使用较低规格的硬件系统,将计算成本降低约20%,训练1万亿Token成本从635万元降至508万元,最终取得 了与使用高性能芯片(如英伟达H100、H800等)的模型相当的效果。 蚂蚁集团有关人士告诉《每日经济新闻》记者,在模型训练过程中,他们既使用了国产芯片,也采用了英伟达芯片。 但百灵系列混合专家模型的横空出世,让市场再次质疑英 ...
蚂蚁集团使用国产AI芯片训练大模型 成本可进一步降低
证券时报· 2025-03-24 07:08
蚂蚁集团使用国产AI芯片训练大模型 成本可进一步 降低 (原标题:蚂蚁集团,AI重大突破!) 蚂蚁集团使用国产AI芯片训练大模型,成本可进一步降低。 近日,蚂蚁集团Ling团队发表了一篇技术成果论文。论文显示,蚂蚁集团推出了两款不同规模的MoE大 语言模型——百灵轻量版(Ling-Lite)与百灵增强版(Ling-Plus),前者参数规模为168亿(激活参数 27.5亿),Plus基座模型参数规模高达2900亿(激活参数288亿),两者性能均达到行业领先水平。 除了自研性能领先的大模型以外,该技术论文最大的突破在于提出了一系列创新方法,以提升资源受限 环境下AI开发的效率与可及性。实验表明,其3000亿参数的MoE(混合专家)大模型可在使用国产 GPU的低性能设备上完成高效训练,性能与完全使用英伟达芯片、同规模的稠密模型及MoE模型相当。 在低性能硬件上高效训练的自研大模型 目前,蚂蚁集团Ling团队的技术成果论文《每一个FLOP都至关重要:无需高级GPU即可扩展3000亿参 数混合专家LING大模型》已发表在预印版Arxiv平台上。 据技术成果论文,虽然DeepSeek、阿里通义千问、MiniMax等系列的 ...
蚂蚁集团,AI重大突破!
证券时报网· 2025-03-24 06:39
蚂蚁集团使用国产AI芯片训练大模型,成本可进一步降低。 近日,蚂蚁集团Ling团队发表了一篇技术成果论文。论文显示,蚂蚁集团推出了两款不同规模的MoE大 语言模型——百灵轻量版(Ling-Lite)与百灵增强版(Ling-Plus),前者参数规模为168亿(激活参数 27.5亿),Plus基座模型参数规模高达2900亿(激活参数288亿),两者性能均达到行业领先水平。 目前,蚂蚁集团Ling团队的技术成果论文《每一个FLOP都至关重要:无需高级GPU即可扩展3000亿参 数混合专家LING大模型》已发表在预印版Arxiv平台上。 除了自研性能领先的大模型以外,该技术论文最大的突破在于提出了一系列创新方法,以提升资源受限 环境下AI开发的效率与可及性。实验表明,其3000亿参数的MoE(混合专家)大模型可在使用国产 GPU的低性能设备上完成高效训练,性能与完全使用英伟达芯片、同规模的稠密模型及MoE模型相当。 在低性能硬件上高效训练的自研大模型 此前,DeepSeek通过一系列算法创新及工程优化,使用性能较低的英伟达H800训练出了性能与顶尖模 型相当的V3与R1,为大模型的训练开辟了新的道路,让更多的企业和研 ...