写点什么

达摩院宣布十大技术趋势,AI 有望迈过两大关键门槛

2020 年 1 月 02 日

达摩院宣布十大技术趋势,AI有望迈过两大关键门槛

2020 年 1 月 2 日,达摩院重磅宣布十大技术趋势,AI 前线第一时间获悉报告列表,并对其中与人工智能相关的两大趋势邀请了专家进行详细解读,希望对广大 AI 领域开发者有所帮助。


2020 年伊始,站在下一个十年的开端,科技发展依旧是我们专注的重点。


刚刚,阿里达摩院发布了《2020 十大科技趋势》,该报告包含了人工智能、区块链、芯片、量子计算等诸多领域。报告指出,人工智能将实现两大突破:认知智能与机器间大规模协作。这两大关键技术一方面可以将人工智能的能力从基础的“听说看”拓展到逻辑推理、思考决策,进而使人工智能深度介入社会生产生活;另一方面可以将智能体大规模自主组织起来,不再需要大量的人工操作,进而使人工智能真正成为协调整个人类工作生活网络的核心系统。



下载完整版白皮书,请访问:https://damo.alibaba.com/events/57


以下为达摩院十大技术趋势预测以及专家详细解读:


达摩院 2020 十大科技趋势


趋势一:人工智能从感知智能向认知智能演进


人工智能已经在“听、说、看”等感知智能领域达到或超越了人类水准,但在需要外部知识、逻辑推理或者领域迁移的认知智能领域还处于初级阶段。认知智能将从认知心理学、脑科学及人类社会历史中汲取灵感,并结合扩领域知识图谱、因果推理、持续学习等技术,建立稳定获取和表达知识的有效机制,让知识能够被机器理解和运用,实现从感知智能到认知智能的关键突破。


趋势解读


近些年来,人工智能已经在感知智能上取得了长足的进步,甚至在许多领域已经达到或超出了人类的水准,解决了“听、说、看”的问题。但对于需要外部知识、逻辑推理或者领域迁移等需要“思考和反馈”的问题,仍然存在诸多难题去攻破。


相较于感知智能这一人工智能 1.0,人工智能 2.0 将更多基于数据,自动将非结构化的数据转变为结构化的知识,做到真正意义上的认知智能。探索如何保持大数据智能优势的同时,赋予机器常识和因果逻辑推理能力,实现认知智能,成为当下人工智能研究的核心。


认知智能的机制设计非常重要,包括如何建立有效的机制来稳定获取和表达知识,如何让知识能够被所有模型理解和运用。认知智能将会从认知心理学、脑科学以及人类社会的发展历史中汲取更多的灵感,并结合跨领域知识图谱、因果推理、持续学习等研究领域的发展进行突破。


认知智能将结合人脑的推理过程,进一步解决复杂的阅读理解问题和少样本的知识图谱推理问题,协同结构化的推理过程和非结构化的语义理解。认知智能也需要解决多模态预训练问题,帮助机器获得多模感知能力,赋能海量任务。


大规模图神经网络被认为是认知智能计算强有力的推理方法。图神经网络将深度神经网络从处理传统非结构化数据(如图像、语音和文本序列)推广到更高层次的结构化数据(如图结构)。大规模的图数据可以表达丰富和蕴含逻辑关系的人类常识和专家规则,图节点定义了可理解的符号化知识,不规则图拓扑结构表达了图节点之间的依赖、从属、逻辑规则等推理关系。以保险和金融风险评估为例,一个完备的 AI 系统不仅需要基于个人的履历、行为习惯、健康程度等进行分析处理,还需要通过其亲友、同事、同学之间的来往数据和相互评价进一步进行信用评估和推断。基于图结构的学习系统能够利用用户之间、用户与产品之间的交互,做出非常准确的因果和关联推理。


未来人工智能热潮能否进一步打开天花板,形成更大的产业规模,认知智能的突破是关键。认知智能可以帮助机器跨越模态理解数据,学习到最接近人脑认知的“一般表达”,获得类似于人脑的多模感知能力,有望带来颠覆性创新的产业价值。认知智能的出现使得 AI 系统主动了解事物发展的背后规律和因果关系、而不再只是简单的统计拟合,从而进一步推动下一代具有自主意识的 AI 系统。


趋势二:计算存储一体化突破 AI 算力瓶颈


冯·诺伊曼架构的存储和计算分离,已经不适合数据驱动的人工智能应用需求。频繁的数据搬运导致的算力瓶颈以及功耗瓶颈已经成为对更先进算法探索的限制因素。类似于脑神经结构的存内计算架构将数据存储单元和计算单元融合为一体,能显著减少数据搬运,极大提高计算并行度和能效。计算存储一体化在硬件架构方面的革新,将突破 AI 算力瓶颈。


趋势解读


经典的冯·诺伊曼计算机架构中,存储单元和计算单元泾渭分明。运算时,需要将数据从存储单元读取到计算单元,运算后会把结果写回存储单元。在大数据驱动的人工智能时代,AI 运算中数据搬运更加频繁, 需要存储和处理的数据量远远大于之前常见的应用。当运算能力达到一定程度,由于访问存储器的速度无法跟上运算部件消耗数据的速度,再增加运算部件也无法得到充分利用,即形成所谓的冯·诺伊曼“瓶颈”,或“内存墙”问题。这就好比一台马力强劲的发动机,却因为输油管的狭小而无法产生应有的动力。


计算力瓶颈以及功耗瓶颈已经对更先进、复杂度更高的 AI 模型研究产生了限制。例如,最先进的自然语言处理模型 XLNet 有约 4 亿模型参数,每次训练需要数百个谷歌深度学习加速器 TPU 运算三天,耗资超过 10 万美元。而据估算人脑中细胞间互联轴突个数在百万亿到千万亿数量级,两者相差约六个数量级。显然 AI 在认知问题上离我们追求的的所谓通用人工智能还有巨大差距,预计将需要计算能力和计算系统的能源效率比现在至少提高几个数量级。因此人工智能要进一步突破,必须采用新的计算架构,解决存储单元和计算单元分离带来的算力瓶颈。


计算存储一体化,类似于人脑,将数据存储单元和计算单元融合为一体,能显著减少数据搬运,极大提高计算并行度和能效。计算存储一体化的研究无法一蹴而就。对于广义上计算存储一体化计算架构的发展,近期策略的关键在于通过芯片设计、集成、封装技术拉近存储单元与计算单元的距离,增加带宽,降低数据搬运的代价,缓解由于数据搬运产生的瓶颈。中期规划,通过架构方面的创新,设存储器于计算单元中或者置计算单元于存储模块内,可以实现计算和存储你中有我,我中有你。远期展望,通过器件层面的创新,实现器件即是存储单元也是计算单元,不分彼此,融合一体,成为真正的计算存储一体化。近年来,一些新型非易失存储器,如阻变内存,显示了一定的计算存储融合的潜力。


计算存储一体化正在助力、推动算法升级,成为下一代 AI 系统的入口。存内计算提供的大规模更高效的算力,使得算法设计有更充分的想象力,不再受到算力的约束。从而将硬件上的先进性,升级为系统、算法的领先优势,最终加速孵化新业务。


更进一步,计算存储一体化是一个 game-changer,开辟了一条新赛道。它的出现将通过迫使产业升级,重构现在处理器和存储器的相对垄断的产业格局。在此过程中,可以帮助更多芯片行业中小企业发展,更为国产芯片创造弯道超车创造了机会。


趋势三:工业互联网的超融合


5G、IoT 设备、云计算、边缘计算的迅速发展将推动工业互联网的超融合,实现工控系统、通信系统和信息化系统的智能化融合。制造企业将实现设备自动化、搬送自动化和排产自动化,进而实现柔性制造,同时工厂上下游制造产线能实时调整和协同。这将大幅提升工厂的生产效率及企业的盈利能力。对产值数十万亿乃至数百万亿的工业产业而言,提高 5%-10%的效率,就会产生数万亿人民币的价值。


趋势解读


现有工业系统之间的通信主要依赖于有线通信来屏蔽噪声和保障低延时,例如 OpcUA、Modbus。由于工厂复杂的环境,布线成为了工业系统通信的痛点。工厂的搬送机器人或一个工矿的挖机需要在一个大范围内频繁移动,WiFi 难以较好覆盖,而 4G/Lora/NB 的数据传输速率和延时达不到机器人响应的要求,因此通信问题难以有效解决。随着 5G 技术的成熟,可以满足工业系统对于高可靠低时延的需求, DTU(无线传输设备)较原本的有线方案无论在部署上,还是在运维上都有着极高的优势和性价比。可以预见的是,工业系统的互联将随着 5G 的建设而得到快速普及。


随着 IoT PaaS 的成熟,云端已经兼容了 WiFi、BLE、Zigbee、Modbus、OpcUA,、RS232 等网络和连接协议。这些协议可以通过 5G 的模组非常方便地帮助原来的 IT 系统与云端打通。APS(自动排产软件)和 MES(制造执行系统)可以从云端或边缘服务器直接下发工艺包和生产计划至每一个机台,从而实现 IT(信息化)和 OT(工控软件)的融合,不仅极大解放了人力,更重要的是实现了工业互联网的重要方向之一,即工厂内部垂直集成:IT 和 OT 系统的整合。


工业互联网主要解决三个问题。一是将制造企业内部的 IT 软件系统与 OT 设备系统打通,进行自动派单,从而实现柔性制造。二是在工厂外实现上下游产业链的优化组合。三是产品的设计和产品生命周期的管理。


传统生产管理与控制中,软件是分层、弱连接,难以实现根据订单变化进行生产动态调整的个性化定制要求。目前随着 5G 和 IoT PaaS 的成熟,可以轻松把设备数据联到云上,将设备作业的数据传到业务系统(云上的 IT 系统)里面,实现派工自动化,从而实现生产的实时调整,满足个性化需求定制。


每个企业出于核心技术保密以及采用的生产系统软硬件不统一等原因,无法构成紧密的价值网络,使价值网络整体的竞争力难以提升。随着 5G 和边缘计算以及 IoT PaaS 的成熟以及区块链技术的进步,利用分布式账本,解决信任问题后,可以突破单个工厂的限制,将价值网络中的上下游企业工厂的制造系统连接起来,进而可以实现上下游制造产线的实时调整和协同,上游的流水线变慢,下游的流水线也可以慢一下,这样就避免了不必要的生产和库存,从而使整个价值网络的竞争力得以提升。


现有生产模式中,在由产品设计、生产规划、生产工程、生产执行、服务所购成的产品价值链上,各环节数据来源不同,异构性强,难以互通,整个价值链的信息无法全透明。但是通过工业互联网和数字孪生技术,在产品的设计阶段使用 CAD 软件设计产品的解析模型;在产品的使用阶段,利用 5G 和 IoT PaaS 采集关键参数,并且输入到云端的模型解析软件里,可以很好跟踪这个产品的全生命周期中的性能和设计指标之间的差异变化。而这些使用过程的信息就成为下一次产品迭代的重要的数据来源,周而复始,推动产品不断迭代进步。


工业系统通过工业互联网连接起来,工业互联网第一次让人类掌握了一个实时调整工业系统能力的工具,从而大幅度促进了生产效率,降低了库存,提高了质量。整个中国的第二产业是 40 万亿人民币,如果按照提高 5%-10%的效率计算,将是产生 2-4 万亿人民币的价值。 这将大幅提升企业的盈利能力。


趋势四:机器间大规模协作成为可能


传统单体智能无法满足大规模智能设备的实时感知、决策。物联网协同感知技术、5G 通信技术的发展将实现多个智能体之间的协同——机器彼此合作、相互竞争共同完成目标任务。多智能体协同带来的群体智能将进一步放大智能系统的价值:大规模智能交通灯调度将实现动态实时调整,仓储机器人协作完成货物分拣的高效协作,无人驾驶车可以感知全局路况,群体无人机协同将高效打通最后一公里配送。


趋势解读


随着人工智能发展迎来又一次浪潮,越来越多的智能设备参与到人类日常生产活动中,影响着人们生活的方方面面。随着“万物互联(Internet of everything)”概念的提出,大量的智能设备被联接起来,形成一个智能设备网络,实现信息共享、统一控制。


在大规模智能设备网络中,机器与机器之间的交流与协作将十分重要。这种协作将优化整体的长期目标,涌现群智,从而进一步将智能系统的价值规模化放大。以城市级别的交通灯控制任务为例,它关注长期城市交通的车辆通行顺畅度。现实环境中,一个城市级别的交通灯控制规模巨大,不同时期又有不同的控制策略,每个路口红绿灯的控制策略取决于实时车流信息及邻近范围内其他路口的交通控制策略。这种要求动态实时调整的大规模智能网络,使用原有的基于规则的方法很难实现。而基于多智能体强化学习的大规模交通控制技术可以解决这一难题。


未来 5 年,多智能体协作将在城市生活的方方面面落地发展,仓储机器人的高效协作完成货物的快速分拣,提升物流效率,降低存储和运输成本;道路上的无人车能够决定并道时是否让其他车先行,提升无人驾驶的安全性和交通效率;交通灯根据当前路口和邻近路口的实时交通情况来决定调度信号,真正盘活整个城市高峰时期的交通;网约车平台会根据城市不同地点各个时间的打车需求来优化给每辆车的派单,降低用户等车时间,提升司机收入。


多智能体协同及群体智能这样全新的人工智能范式的发展和普及将会带来整个经济社会的升级,让人工智能不再只是单个的工具,而是协调整个人类工作生活网络的核心系统。


趋势五:模块化降低芯片设计门槛


传统芯片设计模式无法高效应对快速迭代、定制化与碎片化的芯片需求。以 RISC-V 为代表的开放指令集及其相应的开源 SoC 芯片设计、高级抽象硬件描述语言和基于 IP 的模板化芯片设计方法,推动了芯片敏捷设计方法与开源芯片生态的快速发展。此外,基于芯粒(chiplet)的模块化设计方法用先进封装的方式将不同功能“芯片模块”封装在一起,可以跳过流片快速定制出一个符合应用需求的芯片,进一步加快了芯片的交付。


趋势解读


AIoT 时代世间万物逐步走向在线化、数据化、智能化,不仅将带来芯片需求的爆发式增长,形成巨大的市场空间,同时其碎片化和定制化的特点,也对芯片设计模式提出了新的要求。芯片行业传统的比投资、比品牌、比工艺的“大鱼吃小鱼”格局,正逐渐被比市场灵敏度、比需求适配、比速度和价格的“快鱼吃慢鱼”格局所取代。在应用驱动的趋势下,谁能快速推出专用芯片,就能抢占市场先机。越来越多的系统和应用服务公司在推出专用芯片,例如苹果、谷歌、阿里巴巴、亚马逊、特斯拉等应用企业开始进入芯片设计领域,自研或联合开发芯片产品。


现有的芯片设计模式存在研发成本高、周期长等问题,开发一款中档芯片,往往需要数百人年、数千万甚至上亿美元的研发投入,不仅严重阻碍了芯片创新速度。特别是随着芯片制程从 10nm 缩减到 7nm,接下来还要进一步缩减到 5nm,每一次制程缩减所需要的成本和开发时间都在大幅提升。受到成本和市场压力的驱使,半导体产业在积极寻找新的芯片开发模式,来满足低成本、快速的需求。基于 IP 的可重用的设计方法学,解决了芯片功能模块重复设计的问题,使得芯片可以以模块化的方式进行设计,不同功能的 IP 模块可以在不同的芯片中被重用,这种方法推动了系统芯片(Syetem-on-Chip)的普及。近年来,以 RISC-V 为代表的开放指令集及其相应的开源 SoC 芯片设计、以 Chisel 为代表的高级抽象硬件描述语言和基于 IP 的模块化模板化的芯片设计方法,推动了芯片敏捷设计方法与开源芯片生态的快速发展,越来越多芯片企业开始尝试开源硬件架构进行设计。


面向未来,一种“芯粒”(Chiplet)的模块化设计方法正在成为新的行业趋势。这种方法通过对复杂功能进行分解,开发出多种具有单一特定功能的“芯粒”(Chiplet),如实现数据存储、计算、信号处理、数据流管理等功能。利用这些不同功能的 Chiplets 进行模块化组装,将不同的计算机元件集成在一块硅片上,来实现更小更紧凑的计算机系统结构。以前设计一个 SoC,需要从不同的 IP 供应商购买 IP,包括软核 IP 或硬核 IP,再结合自家研发的模块,集合成一个 SoC,然后在某个制造工艺节点上完成芯片设计和生产的完整流程。未来计算机的系统结构,可能不是由单独封装的芯片制造的,而是在一块较大的硅片上互连成芯片网络的 Chiplets 制造的。模块化的芯片技术最终可以实现像搭积木一样”组装“芯片。


趋势六:规模化生产级区块链应用将走入大众


区块链 BaaS(Blockchain as a Service)服务将进一步降低企业应用区块链技术的门槛,专为区块链设计的端、云、链各类固化核心算法的硬件芯片等也将应运而生,实现物理世界资产与链上资产的锚定,进一步拓展价值互联网的边界、实现万链互联。未来将涌现大批创新区块链应用场景以及跨行业、跨生态的多维协作,日活千万以上的规模化生产级区块链应用将会走入大众。


趋势解读


2019 年是区块链里程碑的一年,区块链技术正式被定位为国家战略,为区块链产业的发展打开了巨大的想象空间。区块链技术应用已延伸到数字金融、数字政府、智能制造、供应链管理等多个领域,主流厂商纷纷进入区块链领域推动技术突破和商业化场景落地。区块链将正式面对海量用户场景的考验,这将对系统处理量提出了更高的要求,并加剧参与节点在信息存储、同步等方面的负担,在现有技术环境下会导致系统性能和运行效率的下降。


区块链的路线之争逐步清晰,从颠覆到补充,从去中心到去中介,联盟链架构成为行业主流技术路线。聚焦研发高吞吐、低延时大规模共识网络,各行业内提升多方协作效率的价值链接局域网逐步呈现。在传统物理世界中,链外到链上锚定过程中的信息真实性保障一直是全行业技术攻关的重点。目前各个行业中正在逐步形成的局域网,通过更好地实现数据共享,帮助价值网络的无障碍流动,有望形成真正的价值互联网络。在商用网络中,区块链保证所有信息数字化并实时共享,使得离散程度高、链路长、涉及环节多的多方主体仍能有效合作,但与此同时,也带来了存储成本、秘钥安全,数据隐私等方面的压力。


展望 2020 年,区块链 BaaS(Blockchain as a Service)服务将进一步降低企业应用区块链技术的门槛。在商业应用大规模落地的同时,区块链网络的“局域网”和“数据孤岛”问题将被新型的通用跨链技术所解决。自主可控的安全与隐私保护算法及固化硬件芯片将会成为区块链核心技术中的热点领域,保障基础设施的性能和安全。以端、云、链的软硬件产品为基础的一站式解决方案,进一步加速企业上链与商业网络搭建的进程。区块链通过与 AIOT 技术融合实现物理世界资产与链上资产的锚定,进一步拓展价值互联网的边界实现万链互联。这也将进一步夯实区块链在数字经济时代数据和资产可信流转的全球基础设施地位。


在电气时代,用电量是衡量经济水平的核心指标;在 4G 时代,互联网上的活跃用户数是繁荣的标志; 在数字经济时代,面对即将到来的海量用户场景,我们相信在未来的 1 年,将会井喷式的涌现大批创新区块链应用场景以及跨行业、跨生态的多维协作。与此而来的,一批日活千万的区块链规模化生产级应用将会走入大众。以区块链为基础的分布式帐本,将在数字经济中进一步推动产业数字化形成的价值有效传递,从而构建新一代价值互联网和契约社会。


趋势七:量子计算进入攻坚期


2019 年,“量子霸权”之争让量子计算在再次成为世界科技焦点。超导量子计算芯片的成果,增强了行业对超导路线及对大规模量子计算实现步伐的乐观预期。2020 年量子计算领域将会经历投入进一步增大、竞争激化、产业化加速和生态更加丰富的阶段。作为两个最关键的技术里程碑,容错量子计算和演示实用量子优势将是量子计算实用化的转折点。未来几年内,真正达到其中任何一个都将是十分艰巨的任务,量子计算将进入技术攻坚期。


趋势解读


通过利用量子力学中非经典的性质,量子计算有望颠覆当前的计算技术,给经济和社会带来变革性的进步。目前量子计算正处于从实验室走进实际应用的转变之中。2019 年谷歌宣称达到 “量子霸权”的里程碑,即其量子计算器件可执行一个任何经典计算机都无法完成的任务。另一领军团队 IBM 当即反驳,称该任务仍在经典算力之内。且不论争论的是非,谷歌在硬件上的进展大大增强了行业对超导路线以及对大规模量子计算实现步伐的乐观预期。2020 年的量子计算将蓬勃发展,主要特点是技术上进入攻坚和产业化的加速阶段。


技术方面,超导量子计算仍将继续占据中心舞台,并对其他硬件路线造成严峻的压力。因为谷歌在超导方向上的成果皆为已知技术,多个追赶者将按图索骥,在 2020 年或做出令人钦佩的复制性结果,或陷入高度复杂的工程噩梦。而领先团队的目标已然锁定在比“量子霸权”更重要且毫无争议的两个里程碑:容错量子计算和演示实用量子优势。前者指的是如何通过量子纠错,避免硬件错误的累积,技术上需要同时在“高精度”和“大规模”两个维度上突破,后者指有力地证明量子计算机可以用超越经典计算的性能解决一个有实际意义的问题。至于演示实用量子优势是否能绕过纠错,还有待历史证明,因为实际问题要求的规模可能如此之大,导致对精度的要求不低于纠错的要求。在 2020 年,乃至未来几年,毫无争议地达到这两个目标中任何一个都非常艰巨,故而量子计算将进入技术攻坚时期。


产业和生态方面,政府、企业和学术机构的规划和投入将升级、扩大。竞争将在多个维度激化:领军团队规模扩充的同时透明性下降;人为设障的风险上升。产业分工将进一步细化:制冷、微波、低温电子控制、设计自动化、制备代工等领域在资本推动、政策扶植和生态滋养下蓬勃发展。各行龙头企业会加力探索应用,助长算法和软件。


国际上工业界-学界-开放性平台和服务三方将相互赋能。工业界的工程复杂度任何纯学术团队无法企及;学界将探索高不确定、颠覆性的方向;开放性平台和服务将降低研究和创业的时间和成本,加速整个领域的迭代和创新速度。这一生态依赖于人才的自由流动,深厚的基础研究能力,和强大的企业执行力;并将得益于大面积且高效的政府投入,及以降低门槛、激励创新、带动民间投入为目标的政策引领。


趋势八:新材料推动半导体器件革新


在摩尔定律放缓以及算力和存储需求爆发的双重压力下,以硅为主体的经典晶体管很难维持半导体产业的持续发展,各大半导体厂商对于 3 纳米以下的芯片走向都没有明确的答案。新材料将通过全新物理机制实现全新的逻辑、存储及互联概念和器件,推动半导体产业的革新。例如,拓扑绝缘体、二维超导材料等能够实现无损耗的电子和自旋输运,可以成为全新的高性能逻辑和互联器件的基础;新型磁性材料和新型阻变材料能够带来高性能磁性存储器如 SOT-MRAM 和阻变存储器。


趋势解读


半个世纪以来半导体产业都在竭力遵循摩尔定律,在取得巨大经济效益的同时也从根本上改变了人类社会的发展进程。人工智能及大数据兴起为云端及终端装置带来更多创新的同时,也使得半导体产业的发展面临着摩尔定律放缓导致的产品升级困难以及大数据导致的算力和存储需求爆发的双重压力。以硅为主体的经典晶体管缩放已经越来越难以维持,从而难以实现半导体产业的持续发展。


虽然新的材料和器件架构如高介电常数介电层(high-k dielectrics)、鳍式晶体管(FinFET)以及铜质导线,扩展了传统半导体厂商的选择并逐步被采用成为主流,但并没有从根本上改变传统的逻辑、存储及互联的原理以及这些器件所面临的物理原理上的困境。各大半导体厂商对于 3 纳米以下的芯片走向都没有明确的答案,但一个可以确定的趋势是越来越多的新材料将会被应用在半导体产业中,这些新材料将将会通过新的物理机制实现全新的逻辑、存储、及互联概念和器件。


从近期来看,新材料如锗和 III-V 族材料可能会代替传统的硅作为晶体管的通道材料以提升晶体管的速度。新的介电材料如铁电材料可能会导致超陡的亚阈值坡度以降低晶体管的能耗。新的金属材料如钴可能会替代钨和铜作互联导线以增强稳定性和减缓信号延迟。二维材料或外延生长的纳米层材料可能会导致 3D 堆集的架构以增加芯片的密度。这些器件的物理机制清楚,当然大规模应用还需要半导体厂商来解决工艺实现、工程配套等方面的挑战。


从更长远的角度来看,更具挑战性的材料及全新的物理机制将是半导体产业能够保持甚至加速指数式的增长的关键。新物理机制是全新的高性能的逻辑和互联器件的基础,比如基于量子效应的强关联材料和拓扑绝缘体、新发现的二维材料中魔幻角度下的超导现象等会导致无损耗的电子和自旋输运。利用新的磁性材料的自旋-轨道耦合现象可以制备全新的高性能磁性存储器如 SOT-MRAM,而利用新的阻变现象使得全新的高密度、高稳定性的阻变存储器(RRAM)成为可能。虽然这些全新的工作机制还处在早期的探索中,但他们能从根本上解决传统器件在物理原理层面所受到的限制,实现对摩尔定律的突破。


新材料和新机制将会对传统的半导体产业进行全面洗牌,包括材料的生长、器件的制备以及电路的工作原理都会发生根本性的变化。这对设备厂商,晶圆厂及电路设计公司都会带来历史性的挑战和机遇,也会为新兴的公司及产业提供振奋人心的发展机会。


趋势九:保护数据隐私的 AI 技术将加速落地


数据流通所产生的合规成本越来越高。使用 AI 技术保护数据隐私正在成为新的技术热点,其能够在保证各方数据安全和隐私的同时,联合使用方实现特定计算,解决数据孤岛以及数据共享可信程度低的问题,实现数据的价值。


趋势解读


数字经济时代,数据成为社会经济发展的新生产要素,数据流动价值也越来越受到人们的重视。然而在企业数字化建设过程中,由于规划、设计、管理等方面存在的问题,导致业务系统在功能上不关联互动、信息不共享互换,各个系统之间容易形成数据孤岛的问题,进一步制约数据共享所带来的流动价值。在越来越多对数据隐私的担忧声中,政府开始行动制定数据使用合规法案,大量的数据因为需要依法保护而无法被联合在一起计算。针对“数据孤岛”现象,目前大部分数据共享平台本质上都是基于中心化的数据交换机制,存在过程复杂、通信成本高、效率低、所有权模糊化、数据泄露风险大的缺点,而且无法保护用户的个人隐私。保护隐私的 AI 安全技术能够在保证各方数据安全和隐私的同时,联合使用各方数据来达到特定的训练与使用 AI 的目的,大大降低信任成本与会计成本,从而充分发挥数据的价值,解决数据孤岛以及数据共享可信程度低的问题。


保护数据隐私的 AI 安全技术拓展传统分布式计算以及信息安全范畴,为网络协作计算提供一种新的计算模式。它可通过多种技术结合保护数据安全,包括安全多方计算、差分隐私、同态加密、混淆电路、加密搜索与计算、可信软硬件等;也可利用人工智能保障模型鲁棒与安全性,如模型加固、数据毒化防御、对抗性样本防御等。


趋势十:云成为 IT 技术创新的中心


随着云技术的深入发展,云已经远远超过 IT 基础设施的范畴,渐渐演变成所有 IT 技术创新的中心。云已经贯穿新型芯片、新型数据库、自驱动自适应的网络、大数据、AI、物联网、区块链、量子计算整个 IT 技术链路,同时又衍生了无服务器计算、云原生软件架构、软硬一体化设计、智能自动化运维等全新的技术模式,云正在重新定义 IT 的一切。广义的云,正在源源不断地将新的 IT 技术变成触手可及的服务,成为整个数字经济的基础设施。


趋势解读


从单机离线到超大规模在线,IT 的技术框架发生了时代性剧变。传统 IT 范式出现失速,而借助与客户的紧密协同并降低使用门槛,云计算不但成为传统 IT 的颠覆者,传统 IT 接口开始逐渐被云端接口取代和重新定义。软件技术和硬件技术之间的依赖程度大幅度降低,可以分离演进,并行发展。


与此同时,技术创新的主导者与策源地全面转移到云平台。云平台、技术开源、云用户三者形成驱动技术创新的新三角。未来新型的计算形态例如量子计算、AI、新型芯片等创新不仅将首先发生在云平台上,同时也将通过云向外界服务。云计算的含义不断扩展,这使得广义上的云计算成为数字经济基础设施。


在全面上云的云计算时代,传统的软硬件分离迭代的模式逐步显现出局限性,现今的应用越来越复杂,对算力的要求越来越高,而算法、软件和硬件的隔阂造成巨大算力的浪费,已经无法满足在超大规模计算机场景下提升 IT 计算效率、降低计算成本的诉求。同时随着大多数企业开始全面拥抱云计算,如何最大化发挥“云”的价值,实现应用的快速上线和高效运行、业务的秒级启动等是企业从容地应对市场快速变化的关键。


在软硬件核心技术领域,通过自主可控的技术重新设计软硬件之间的系统接口,使算法、软件和硬件设计的沟通会更加紧密,让现有硬件的算力发挥到极致,打造适合云基础设施的新型计算机。通过大幅提升计算效率,实现能够突破传统 IT 时代的算力瓶颈,凸显云计算的整体优势。在过去的几年中,用于机器学习加速的 AI 芯片,以及新一代虚拟化专用芯片等都是充分利用软硬件协同设计模式带来计算效率提升的典范。另一方面,软硬件协同设计有利于加强对于底层技术的控制能力,提升云的可靠性和易用性。


在云资源交付方式上,云原生让云计算变得越来越标准化。基于无服务器计算(Serverless Computing)的应用开发和交付方式进一步解放云计算能力。Serverless 通过更高层次的抽象,由云平台来负责计算资源的分配、管理和伸缩,让开发者只需关注自己的业务逻辑,而无需显式地保有计算资源,免去资源管理、系统运维等工作,按需付费的计费方式也可以帮助开发者实现成本优化。无服务器计算进一步简化微服务(Micro-service)应用架构,用户只需书写事件驱动的函数实现即可,极大地降低构建云应用的难度。同时无服务器计算进一步推动事件驱动应用架构的发展,有效解耦事件源和事件处理者,为企业提供一个灵活的系统,能够快速适应变化并实时做出决策。


未来的软件一定是生长于云上的,云原生和无服务器计算正在重塑整个软件生命周期,从软件需求设计到研发到发布到构建分发到运维等。在 All-in-Cloud 的时代,基于软硬一体化重新设计的云计算基础设施以及通过云原生的崭新资源交付方式在提高计算效率、易用性的同时降低计算和运维成本,进一步巩固云成为数字经济时代基础设施。


2020 年 1 月 02 日 11:0416571
用户头像
赵钰莹 InfoQ高级编辑

发布了 652 篇内容, 共 387.3 次阅读, 收获喜欢 2102 次。

关注

评论 2 条评论

发布
用户头像
2020 年 01 月 15 日 19:34
回复
用户头像
非常细致的输出。
2020 年 01 月 03 日 14:16
回复
没有更多了
发现更多内容

架构师训练营week1-食堂就餐卡系统设计

花果山

Week 5 总结

黄立

总结

Let's Go

escray

新年计划

训练营第五周作业 1

仲夏

极客大学架构师训练营

架构师训练营第 2 期 第一周作业1

月下独酌

极客大学架构师训练营

第一周

宇文青

极客时间架构 1 期:第 5 周 技术选型(一) - 命题作业

Null

第五周 作业一 第一题

sean

第一周学习总结

tothegump

极客大学架构师训练营

架构师训练营 1 期 - 第五周总结(vaik)

行之

极客大学架构师训练营

第一周作业

tothegump

极客大学架构师训练营

训练营第一周

小一

架构训练

食堂就餐卡设计

博博

架构师训练营week05作业(hash算法)

FG佳

架构师一期

架构师训练营 - 第 5 周课后作业(1 期)

阿甘

第一周学习总结

晴空万里

极客大学架构师训练营

训练营第五周作业 2

仲夏

极客大学架构师训练营

架构师 01 期,第五周课后作业

子文

架构师训练营week05总结

FG佳

架构师一期

第五周 作业第二题

sean

Week 1 :架构的方法(学习总结)

shuyaxx

第一章学习笔记

博博

技术选型(一)

wing

极客大学架构师训练营

极客时间架构 1 期:第5周 技术选型(一) - 学习总结

Null

Week 1 :架构的方法(作业一)

shuyaxx

架构师训练营第五周作业

月殇

极客大学架构师训练营

UML-食堂就餐卡系统

笨笨程序猿

极客大学架构师训练营 UML

分布式架构技术选型总结(一)

天天向上

极客大学架构师训练营

架构师训练营 - 第 5 周学习总结(1 期)

阿甘

架构师训练营第 1 期 -- 第五周作业

发酵的死神

极客大学架构师训练营

极客时间-架构训练营 第一周总结-做架构的姿势

NLP领域的2020年大事记及2021展望

NLP领域的2020年大事记及2021展望

达摩院宣布十大技术趋势,AI有望迈过两大关键门槛-InfoQ