首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

腾讯汤道生:行业大模型已经过了“尝鲜期”

9 月 7 日,在 2023 腾讯全球数字生态大会上,腾讯集团高级执行副总裁、云与智慧产业事业群 CEO 汤道生发表主题演讲,重点分享了 AI 大模型等技术产品对于产业发展的深远影响,以及腾讯云行业大模型的最新思考。

“大语言模型的发展第一次让我们看到了 AI 在产业中大规模落地的可能。六个月前,很多企业惊叹于通用大模型的生成能力,迫不及待地尝试与业务结合。但很快发现,通用大模型在实际应用中,面临专业度、准确度、数据安全、成本等很多挑战。”汤道生说

汤道生提到,行业大模型已经过了“尝鲜期”,目前正深入各类业务场景,推动企业全链条智能化。“六个月前,客户来谈大模型,能想到的应用场景基本只是文字客服。但今天,应用场景已经快速扩展到各个领域,比如在金融行业,大模型已经应用在开户、业务处理、风控等多个场景。”为此,腾讯尝试用大模型打造全栈产品能力,用于业务不同环节,助力企业全链条提质增效。

与此同时,汤道生提到表示,在大模型产业化的落地过程中,客户关注的不仅是模型的大小、功能,而是更为关注如何选用并定制适合自身业务发展的模型产品。基于这些实际需求,腾讯云不断升级大模型精选商店,包括自研的通用大模型“混元”、20 多种主流开源模型和更多行业大模型。企业可以根据自身需求选择合适的模型产品,并进行训练和精调,以满足个性化需求。

企业专属模型的生成,涉及到数字资产资源管理、数据标注、训练、评估、测试和部署等很多环节。同时,根据业务发展,企业模型需要不断地调优、迭代,数据处理的整个过程,也要不断地重复。汤道生认为,模型的热潮导致各项成本攀升,拥抱大模型不能只是一时冲动,还要理性考虑落地成本,训练、推理的效率。

针对此,腾讯云也提供了从数据处理、多机多卡训练到硬件优化的一站式解决方案,以帮助企业高效、低成本地创建和使用大模型。同时,腾讯云 TI 平台还进行了全新升级,有效提升了大模型的训练速度和推理效率。

“AI 大模型等产品的发展及落地将对千行百业产生‘质’的影响,我们也将持续开放产品能力、不断探索技术应用,助力产业实现更高质量的发展。”汤道生表示。

据悉,为解决企业 AI 能力应用难题,腾讯云推出了 AIGC 全栈解决方案,依托于腾讯云在大模型、机器学习等方面的 AI 能力,通过升级一站式 MaaS 服务,打造 AIGC 全链路内容安全解决方案,提供从标注、训练/微调、评估、测试到部署的全流程开发业务,确保 AIGC 服务更“可信、可靠、可用”。

在算力方面,腾讯云的新一代高性能计算集群 HCC,从“计算、存储、网络”三大技术层面出发,为大模型训练提供高性能、高带宽、低延迟的智算能力支撑。通过搭载最新代次计算卡,利用星海自研服务器的 6U 超高密度设计和并行计算理念,确保高性能计算;依托高性能存储 CFS Turbo 和对象存储 COS,实现高吞吐存储;通过自研 3.2T RDMA 星脉网络,保障高性能无损网络;并构建了集群可观测体系,实现对 GPU 和网络进行实时监控和故障自动恢复,保证高稳定性。

此外,腾讯云还通过 GPU & CPU 混布、GPU 离在线混布、本地盘与分布式缓存混布的混合部署方式,系统性地提升了资源利用率。腾讯云新一代高性能计算集群 HCC,打造了 AIGC 落地各行各业的算力基础,让 AIGC 服务更可靠。

在合规性方面,腾讯云能够对数据集进行预处理,为企业提供自动化审核服务、定制识别服务等审核解决方案,再通过 AIGC 大模型进行训练和微调,构建起完善的内容审核平台,实现智能化拦截敏感内容,保障了端到端的合规,有效解决了 AIGC 落地的内容合规层面问题,让 AIGC 服务更可信。

在训练与推理效率方面,腾讯云通过数据集下载加速、训练及模型数据读取加速、Checkpoint 写加速、分布式训练加速、推理加速的全链路加速能力,系统性地解决了训练与推理效率问题,以效率提升带动成本下降,例如数据集下载层面,腾讯云的半托管 MSP 工具和对象存储 COS 提供了跨地域复制能力,能够轻松实现低成本将海外数据集传输至国内。

  • 发表于:
  • 本文为 InfoQ 中文站特供稿件
  • 首发地址https://www.infoq.cn/article/uqKNBbQD7mcJS40u66WA
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券