写点什么

DeepSeek 蝴蝶振翅,会掀起 AI 出海的狂风巨浪吗?

Alex Yeh

  • 2025-03-06
    北京
  • 本文字数:5151 字

    阅读完需:约 17 分钟

大小:2.40M时长:13:59
DeepSeek蝴蝶振翅,会掀起AI出海的狂风巨浪吗?

最近两个月,DeepSeek 凭借创新的 MoE 混合专家模型架构,在模型性能与训练成本上实现了突破性进展,引爆了全球 AI 狂潮,DeepSeek 也一度成为海外最受欢迎的 AI 产品,由此引发了业内非常多关于 AI 出海的探讨。


本期《极客有约》,极客邦科技创始人 &CEO 霍太稳 对话 GMI Cloud 创始人 &CEO Alex Yeh,深入探讨了 GMI Cloud 在 AI 出海方面的一些探索与实践。GMI Cloud 是一家 AI Native Cloud 服务商,为各类企业提供 AI 云服务解决方案。去年 10 月他们完成了 8200 万美元的融资。    


00:00 / 00:00
    1.0x
    • 3.0x
    • 2.5x
    • 2.0x
    • 1.5x
    • 1.25x
    • 1.0x
    • 0.75x
    • 0.5x
    网页全屏
    全屏
    00:00

    直播回放


    以下为经编辑整理后的访谈精华:


    为什么选择拥抱这波 AI 浪潮?


    霍太稳:GMI Cloud 是一家怎样的公司?创办的宗旨是什么?

    Alex:GMI Cloud 是一家专注于 AI Native Cloud 的初创服务商,也就是 AI 原生服务提供商。我们给很多企业提供 AI 云服务解决方案,去年 10 月份完成了 8200 万美元的融资。“GMI”代表 General Machine Intelligence。我们创办 GMI Cloud 的宗旨,就是支持任何企业、创办人或创作者去部署 AI,把 AI 微调并规模化。不管是模型训练、推理,还是需要应用或简单 API,我们都能快速提供相应解决方案。


    霍太稳:是在怎样的契机下创建 GMI Cloud 的?

    Alex:超过 3 年半前,我原本从事 VC 和 PE 投资。当时投了朋友的比特币矿场,后来 2020 年 5 月因为一些原因,我面临很大损失。当时我有两个选择,要么直接承受投资损,要么出海找解决方案,我选择了后者。去纽约找数据中心没人理我,我就决定自己盖。花了两年时间盖了三个数据中心和矿场,在阿肯色州等地,还建了大量电力设备和厂房建设。后来在硅谷,朋友和 VC 跟我要 GPU,我才发现需求很大,就转型做 GPU 租赁业务。随着和客户接触越来越多,发现他们做云或 AI 项目有很多难题,像基础设施、安全防护、人才等问题,尤其是人才问题很突出,懂 AI 软件又懂基础设施的人太少了。所以我们 GMI Cloud 最后就定位于帮助想做 AI 的客户,提供他们需要的各种基础设施,助力他们往 AGI 发展。


    霍太稳:GMI Cloud 在服务上和其他提供基础设施的企业相比,有什么差异化?

    Alex:我觉得可以从几个层面来讲。从产品角度,我们和其他云服务公司不一样,比如 AWS、Azure 这些大公司,他们就像盖了很高的围墙,希望客户把所有东西都放在他们云上。我们则像乐高积木,底层是 GPU 硬件,中间层是基础设施即服务(IaaS),上层是推理和模型服务层,客户可以按需选择使用其中一层或多层,完全可以自己控制环境和扩展需求,我们不会强制客户依赖我们的生态。


    硬件层,我们是 NCP(NVIDIA Cloud Partner),在全球各个点都有自己的 GPU;IaaS 层,我们能控制到 BIOS level 的 GPU 基础设施,从 CPU、GPU、Memory、RAM,甚至包括温控,以及整个容器开什么端口,这些我们都能控制,而且很酷的地方是我们的 IaaS 层是完全可以独立出去的,就好比是说它是一个 Windows 的操作系统,所以你不需要买我的 GPU,你可以把这个操作系统放在你自己的集群上面使用;推理和模型服务层,我们可以直接为客户提供 API 或模型服务。比如最近有些客户说我只需要一个 API,例如 DeepSeek 或者 Open Sora 的端点,那我就直接提供 API 给你,或是开个端点给你。很多大型企业没办法像我们这样灵活,且优化起来也很痛苦。


    另外,在人才和区域优势方面,除了像 BAT、火山这些大型云厂商外,我们应该算是做云服务比较好的新创公司。我们有中美顶尖的人才,Google X、阿里、IBM、Intel、Red Hat 的原厂工程师都有。在亚太我们有很多节点,总公司在硅谷,所以能得到全球很多客户的支持。而像 Lambda 等一些公司,他们客群基本都在美国,对于中国出海或亚洲公司来说,和他们合作很难建立信任关系,且他们在亚洲没有集群,这方面我们比他们有优势。还有就是当前比较特殊的全球局势,也让我们这样以硅谷为中心的华人公司有了生存空间。


    DeepSeek 引发的蝴蝶效应


    霍太稳:DeepSeek 推动的轻量化、低成本技术路线,对产品商业化和 AI 基础设施构建有什么影响?

    Alex:我觉得这是个革命性的事情。在美国这边,很多人说这是国际关系之间的较量,但我觉得这本质上是开源和闭源的较量,DeepSeek 让开源模型超越了闭源模型,这是值得关注的重点。


    对于客户来说,分为企业型用户和新创公司。新创公司最需要的就是“快”,比如 OpenAI 的 Sora,刚推出时很惊艳,但 6 个月后竞争就很激烈了。对新创公司或任何企业而言,都是先要有产品,再去追求完美。新创公司永远追求快和好,我们提供一整套服务,能让他们快速使用。轻量化很重要,特别是因为它是开源的。


    对于企业用户,像美国很多世界 500 强公司,他们想做一些和大模型相关的事情,比如把 PDF 塞进大模型,想法简单但实现起来很难,涉及基础建设、Scaling(Law)、隐私和权限管理等问题。所以我们尽量提供不同模块让他们自己选择去使用。其实 DeepSeek 和我们的初衷一样——能让客户完全控制环境。以前大家选择模型,比较好的基本是 OpenAI、Anthropic 这些闭源的,不仅要交 API 费用,数据还会流向这些公司,新创公司可能无所谓,能用就行,但大企业肯定不行,像银行、保险公司就不能接受。有了开源的 DeepSeek,企业可以把它移到自己服务器上,放在本地或自己的云上面都可以,环境和模型位置都能自己掌控。所以,DeepSeek 对开源模型发展是个很大的推动,能让大小公司都能完全控制自己的模型和未来产品走向。


    霍太稳:面对类似 DeepSeek 这样因火爆导致的服务器繁忙、API 服务暂停等问题,以及 AI 基础设施在应对海量访问和市场竞争时的挑战,GMI Cloud 有哪些解决办法?

    Alex:我觉得新创公司在这种情况下,最重要的就是速度。有像发现了 DeepSeek 这么好的武器,就要赶紧拿起来做出产品卖给客户。比如美国的 Mistral 和 Cursor,把开源和闭源模型结合,做了自己的 UI/UX,四个月就达到 100 万亿美金的 AR,就是快速规模化的例子。不要想着自己盖机房、抠成本,要找稳定可靠的算力服务商一起成长,根据业务需求随时调整。


    除了速度,稳定性也很关键。在硬件方面,前面也提到了我们是 NCP,每两周会和 Nvidia 的工程部探讨新一代 GPU 硬件和软件架构,以及遇到的各种问题,他们会帮我们解决。而且我们自己对服务器有 8 层 QC(质量检查)过程,从 CPU 性能、GPU、内存到网络等都要检查,还要做压力测试,拿 LLAMA3 跑 GPU 测试,在交付给客户前确保机器质量,哪怕 OEM 说机器没问题,我们也都会自己测试完确认质量后再交给客户。


    关于速度和稳定,还有一个建议就是一定是要找到专业的团队 ,让你去节省工程师去调试基础设施的时间,把更多精力集中在 build 这个应用上,这很重要。你想象一下,假设一个训练进行了五六天,突然断掉了。一个礼拜的训练结果全部不见了,工程师真的会疯掉。所以最终还是需要稳定,还有速度,我觉得这两个是缺一不可的事情。


    另外在容错方面,我们测试 OK 的机器交付给客户后,也可能出现各种突发问题,进而影响算力良率。所以我们会在客户租用机器数量基础上多准备几台,比如客户租 100 台,我们准备 103 台或 105 台,有机器坏了马上替换,保证客户整包算力稳定,让客户感觉不到机器有问题等等。


    霍太稳:GMI Cloud 的典型客户希望你们帮助解决哪些问题?

    Alex:我们的客户主要分三类,其实就是对应我前面说的三层。


    第一类是大模型公司,他们就是来训练模型的,不管是视频模型、语言模型还是多模态模型。对他们来说,我们只要保证集群稳定就行,因为他们技术很强,比我们大数倍甚至数百倍。


    第二类客户是有一定技术能力,但没有基础设施运维团队的公司。一般公司大多只有前端、后端人员,很少有懂网络这些基础设施的人。我们给这类客户提供容器选项,让他们能方便地进行模型微调(fine tune)和推理(inference)。另外他们还需要很多不同服务,像不同的机器学习框架,模型训练好或调整好后要推广,客户可能分布在全球,就需要全球推理服务。比如他们自己做的话,如果集群设在美国中部,欧洲或亚洲客户访问延迟可能很高,像做游戏就根本不行。我们会根据客户需求,提供全球不同节点的服务,让客户的延迟控制在一定范围内,并且能自动扩容延展,就像一个超大型的 model CDN 网络,自动帮他们切换到对应数据中心,保证服务质量。


    第三类是传统非 AI 公司,他们有成熟产品,想导入 AI,但不知道怎么执行,我们就给他们提供模型让他们使用。


    霍太稳:GMI Cloud 的定价策略是怎样的?/ 如果客户想试用,有相关渠道吗?

    Alex:我们 GMI Cloud 是以美国定价,因为成本差异很大,特别是 GPU 所在位置对成本影响很大。而且我们在国内没办法提供集群,因为涉及 Nvidia 提供商的一些法律问题,我们只能给客户提供海外的服务。虽然定价基于美国,但我们能保证服务的可靠性、提供不同地点的选择,还有服务速度。


    对于想要试用的客户,我们有 POC(概念验证)服务。现在 DeepSeek 很火,我们推出了基于 H200 的满血版的 R1 API 和端点,做了深度优化,好用的同时,价格还与业界相当。如果有伙伴需要可以联系我们,一个月后我们还会提供自助服务选项,想试用的小伙伴到时候就可以开始使用我们的产品了。


    全球化竞争中不可忽视的生存法则


    霍太稳:如何看待当下的出海热,AI 应用出海在基础设施和商业模式上面临哪些挑战,又有什么解决方案?

    Alex:我觉得出海要先看自己的优势。就像在美国,你要申请好的大学,你肯定不要去跟别人拼游泳、拼跑步,肯定得拿个工具,比如拿个乒乓或者羽毛球拍子,就厉害了。所以得找自己的优势点。我觉得 中国非常厉害的一点就在于硬件的供应链上,深圳做的东西又好又便宜。另一点则是营销,中国 2C 端做得非常好,像抖音、小红书比美国的 Instagram 强太多了,差不多超越两代以上。


    在 AI 交互方面,未来几年硬件交互会有很大改变,比如视觉方面的 AR、VR 眼镜,声音方面的耳机,还有机器人等等,和大模型、语音转文字模型结合一下,就能做出很好的产品。中国企业可以做这些结合 AI 组件的硬件产品,通过营销推向 2C 市场。特别是美国市场,他们在这方面接受度很高。当然,做 SaaS 化产品也可以,像简单的会议纪要软件,没什么技术难度,靠打品牌、扩大规模,你跟每个客户说每个月收 10 美金或者 5 美金,对他们而言其实不痛不痒,但盈利空间也非常大。


    当然,如果你的产品突然火了,也可能会遇到像 DeepSeek 那样的算力不足、服务器优化和网络架构升级等问题,所以从一开始,在基础设施的构建和选择上,寻找稳定可靠的算力服务商合作会更好。


    霍太稳:在 AI 全球化竞争中,技术突破、商业场景、生态建设这三个关键点,对于企业来说优先级是怎样的?

    Alex:这得看公司做的产品和面向的客户。对于生态建设,它更适合大公司和模型构建者,比如做游戏大模型的公司,需要很多开发者在平台上开发,就像 DeepSeek 靠技术驱动建立生态,但技术只是切入点,最后还是要开发生态。


    很多小公司,生态建设不是首选。小公司首先要有商业逻辑,了解客户需求,虽然也可以做技术突破,但不是像 DeepSeek 那样烧钱搞研发。小公司可以利用现有的成熟模型,比如 OpenAI、阿里的千问等等,在上面做 UI/UX 模块,根据客户问题选择合适的模型。对于小公司来说,生态建设应该放在第三步,因为生态是建立在有好产品的基础上,小公司得先活下来。所以对大部分公司来说,更好的做法是先了解客户需求,做出好产品。


    对于新创公司,先满足客户需求最重要,不用急着谈技术突破,因为大厂可能已经提供了相应技术,也不用谈生态建设。等公司发展到一定规模,最好有自己的技术含量,寻求商业场景突破,生态建设可以放在后面。


    而对于大公司或巨型公司,很多客户已经在使用他们的产品,商业场景已经有了,技术也有一定基础,这时候生态建设可以放在首位,投入资源做技术突破,进一步拓展商业场景。


    霍太稳:国外在 AI 生态合作上有什么特点,中国出海企业做生态合作需要做哪些储备?

    Alex:国外在 AI 生态合作上,大多是根据自身需求,有什么资源就用什么资源。比如需要基础设施、数据标注、接入不同模型等,就找专业的公司合作,把这些资源拼起来,先找到产品市场契合度,再扩大规模建立生态。


    中国出海企业不要想着什么都自己做,要找专业的公司做专业的事。先专注打造自己的核心产品,快速找到产品与市场的契合点,再逐步扩大规模、建立生态。


    霍太稳:用一句话给中国 AI 出海团队提建议,最不可忽视的生存法则是什么?

    Alex:一句话概括就是“Focus on building your product”,专注打造你的产品。深入了解客户需求,做出能精准解决客户痛点的产品就行,哪怕只解决一个痛点。同时要充分利用周围资源,不要想着什么都自己做,以最快速度实现产品市场契合,安全且快速地达到目标。



    更多关于 GMI Cloud 的内容,请戳👉InfoQ 独家对话 GMI Cloud 创始人:我看到的 GPU 云市场的现在和未来


    ※ GMI Cloud 限时开放惊喜福利,扫描下方二维码👇立即参与。



    2025-03-06 15:069783

    评论

    发布
    暂无评论

    人工智能 | 大模型之提示词工程:少样本提示

    测试人

    软件测试

    玩转Spring状态机

    京东科技开发者

    mac电脑好用的防火墙:Radio Silence for mac 激活版

    你的猪会飞吗

    mac软件下载 Mac电脑软件

    基于STM32+华为云IOT设计的智能窗帘控制系统

    DS小龙哥

    6 月 优质更文活动

    2024年全球零信任发展趋势

    芯盾时代

    网络安全 iam 统一身份认证 零信任

    Moka Ascend 2024|势在·人为,技术创新,激发企业管理内在效能

    科技汇

    分库分表后复杂查询的应对之道:基于DTS实时性ES宽表构建技术实践

    京东科技开发者

    DataWorks重磅推出全新资源组2.0,实现低成本灵活付费和动态平滑扩缩容

    阿里云大数据AI技术

    sql 大数据 阿里云 Serverless Dataworks

    小浣熊家族 X InfoQ 写作社区有奖征文大赛获奖名单公示

    InfoQ写作社区官方

    热门活动

    智能化改造助力企业高质量发展

    天津汇柏科技有限公司

    智能化 高质量发展

    Explore WiFi 7: RF module chips QCN9274 and QCN9224 technical differences

    wifi6-yiyi

    华为大咖说 | 从《庖丁解牛》谈项目经理的三重境界

    华为云PaaS服务小智

    项目管理 开发 华为云

    Toco x Databend:Databend Cloud 如何满足 Web3 大数据服务的严苛考验?

    Databend

    【论文速读】|利用大语言模型实现现实世界代码的翻译:一项针对翻译到Rust语言的研究

    云起无垠

    Claude 3.5 Sonnet发布,比GPT-4o更智能;OpenAI CTO预测1年半“博士级智能”AI将出现|AI日报

    可信AI进展

    #人工智能

    警告!恶意域名疯狂外联,原因竟然是……

    权说安全

    应急响应 安全服务

    探索虚拟线程:原理与实现

    京东科技开发者

    探索未来网络安全的新篇章:火绒安全与 OpenVINO™ 的协同创新

    Geek_2d6073

    【测试中的人工智能】自学活动一:理论知识学习

    QE_LAB

    人工智能 AI 测试

    众所周知,配置即代码≠基础设置即代码

    禅道项目管理

    项目管理 DevOps 自动化测试 配置即代码 基础设置即代码

    mac鼠标自动点击工具:RapidClick for Mac 激活版

    你的猪会飞吗

    Mac 软件 mac破解软件下载 Mac电脑软件

    DeepSeek蝴蝶振翅,会掀起AI出海的狂风巨浪吗?_云计算_InfoQ精选文章