设计工具
公司

使用正确的内存策略启用数字孪生

威尔·弗洛伦蒂诺:2023年3月

沙巴体育结算平台错误,提供卓越的整体设备效率(OEE).

\r\n

一旦我们理解了这些要求的挑战和复杂性, 我们将开始意识到内存和存储对于实现数字孪生是多么重要.

\r\n

提取正确的数据是第一个挑战

\r\n

设计数字双胞胎不仅仅是对物理特征的孤立感知. 它也是针对外部和内部子系统之间的交互进行建模的能力. 例如, 感应发电机振动的谐波轮廓,还可以让我们了解该图像如何与电机的物理特性相关联, 轴承, 腰带, 以及对这种互动的影响. 如果有人真的想制造一台机器的“数字双胞胎”, 简单地在它周围安装传感器,而没有任何价值的相互依赖感,是不会给出一个准确的“双胞胎”的。.

\r\n

考虑到在已经运行的机器上添加新的传感器并不那么简单,布朗菲尔德的采用也使这变得复杂. 事实上, 概念验证的第一步是添加一个DIY或嵌入式板,这些板具有最小的接口来支持传感器到云的数据转换. 添加连接性是一回事, 但实际的建模完全不同,你需要能够存储动态数据并将其与训练过的模型进行比较. 此外, 考虑到您想要建模的数十或数百种类型的系统,这种方法当然不是最具可伸缩性的解决方案.

\r\n

计算将不断发展

\r\n

内置CNN(卷积神经网络)加速器的新处理器架构是实现更快推理计算的良好开端. 这些设备不仅可以接收模拟信号,还可以进行处理, 在设备, 并过滤掉数据的噪声,并允许与模型相关的值. 这些都是为智能端点量身定制的,具有GFLOPS(每秒千兆次浮点运算)范围内的并行运算,大约小于20 TOPS(每秒兆次运算)。.

\r\n

更低的成本, 低功耗gpu也很关键,因为它们提供了基于硬件的机器学习计算引擎,本质上更加敏捷, 并为更高的OPS(每秒操作数)提供计算能力. 业界看到边缘专用gpu的实现低于100 TOPS或超过200+ TOPS的更多基础设施类gpu.

\r\n

低功耗DRAM存储器是人工智能加速解决方案的理想选择

\r\n

大家可以想象, 根据体系结构的不同,带加速器的多核通用cpu可能需要x16的内存宽度, x32比特, 而高端gpu可能需要高达x256位宽度的IO.

\r\n

直接的问题是,如果您要将千兆字节的数据移到或移出外部内存进行计算, 您将需要内存提供更高的总线宽度性能. 下表显示了基于int8 TOPS要求的内存接口的性能要求.

\r\n

内存通过不断发展新的标准来跟上人工智能加速解决方案的步伐. 例如, LPDDR4/x(低功耗DDR4 DRAM)和LPDDR5/x(低功耗DDR5 DRAM)解决方案比以前的技术有显著的性能改进.

\r\n

 

\r\n"}}' id="text-40c4191b0c">

IDC预测从2021年到2027年, 作为数字孪生模型的新实物资产和流程的数量将从5%增加到60% . 尽管将资产行为的关键要素数字化并不是一个全新的概念, 该技术的各个方面的能力——从精确传感到实时计算,再到从大量数据中改进的见解提取——都在使机器和操作系统更加优化,并有助于加快规模和上市时间. 除了, 启用AI/ML(人工智能/机器学习)模型将有助于提高流程效率, 减少沙巴体育结算平台错误,提供卓越的整体设备效率(OEE).

一旦我们理解了这些要求的挑战和复杂性, 我们将开始意识到内存和存储对于实现数字孪生是多么重要.

提取正确的数据是第一个挑战

设计数字双胞胎不仅仅是对物理特征的孤立感知. 它也是针对外部和内部子系统之间的交互进行建模的能力. 例如, 感应发电机振动的谐波轮廓,还可以让我们了解该图像如何与电机的物理特性相关联, 轴承, 腰带, 以及对这种互动的影响. 如果有人真的想制造一台机器的“数字双胞胎”, 简单地在它周围安装传感器,而没有任何价值的相互依赖感,是不会给出一个准确的“双胞胎”的。.

考虑到在已经运行的机器上添加新的传感器并不那么简单,布朗菲尔德的采用也使这变得复杂. 事实上, 概念验证的第一步是添加一个DIY或嵌入式板,这些板具有最小的接口来支持传感器到云的数据转换. 添加连接性是一回事, 但实际的建模完全不同,你需要能够存储动态数据并将其与训练过的模型进行比较. 此外, 考虑到您想要建模的数十或数百种类型的系统,这种方法当然不是最具可伸缩性的解决方案.

计算将不断发展

内置CNN(卷积神经网络)加速器的新处理器架构是实现更快推理计算的良好开端. 这些设备不仅可以接收模拟信号,还可以进行处理, 在设备, 并过滤掉数据的噪声,并允许与模型相关的值. 这些都是为智能端点量身定制的,具有GFLOPS(每秒千兆次浮点运算)范围内的并行运算,大约小于20 TOPS(每秒兆次运算)。.

更低的成本, 低功耗gpu也很关键,因为它们提供了基于硬件的机器学习计算引擎,本质上更加敏捷, 并为更高的OPS(每秒操作数)提供计算能力. 业界看到边缘专用gpu的实现低于100 TOPS或超过200+ TOPS的更多基础设施类gpu.

低功耗DRAM存储器是人工智能加速解决方案的理想选择

大家可以想象, 根据体系结构的不同,带加速器的多核通用cpu可能需要x16的内存宽度, x32比特, 而高端gpu可能需要高达x256位宽度的IO.

直接的问题是,如果您要将千兆字节的数据移到或移出外部内存进行计算, 您将需要内存提供更高的总线宽度性能. 下表显示了基于int8 TOPS要求的内存接口的性能要求.

内存通过不断发展新的标准来跟上人工智能加速解决方案的步伐. 例如, LPDDR4/x(低功耗DDR4 DRAM)和LPDDR5/x(低功耗DDR5 DRAM)解决方案比以前的技术有显著的性能改进.

 

AI加速解决方案信息图显示数据速率图降低功耗图

LPDDR4最多可以运行4个.2gbps和支持高达x64总线宽度. 与LPDDR4相比,LPDDR5x的性能提高了50%,性能提高了8倍.5 gbps. 此外,LPDDR5的功率效率比LPDDR4X高20%. 这些都是重大的发展,将提高整体性能,并将与最新的处理器技术相匹配.

嵌入式存储遵循机器学习的复杂性

仅仅认为计算资源受到处理单元的原始top的限制是不够的, 或者内存架构的带宽. 随着机器学习模型变得越来越复杂, 模型参数的数量呈指数增长2 也.

机器学习模型和数据集扩展以获得更好的模型效率,因此也需要更高性能的嵌入式存储. 典型的托管NAND解决方案,如eMMC 5.1配3.2Gb/s对于代码上传和远程数据存储来说都是理想的. 较新的技术,如UFS接口可以运行7x到23.2gb /s,允许更复杂的模型.

这些嵌入式存储技术也是机器学习资源链的一部分.

启用具有正确记忆的数字孪生

业界都知道,边缘终端和设备将产生数兆字节的数据, 不仅仅是因为它的忠诚, 但摄取数据的需求将有助于改进数字模型——这正是数字双胞胎所需要的.

除了, 代码需要扩展,不仅仅是为了管理数据流, 还包括边缘计算平台的基础设施,以及添加XaaS(即服务)业务模型.

数字孪生技术具有巨大的潜力. 但如果你做一个“双胞胎”模型,也就是只模仿一张脸的一个“鼻子”或“眼睛”, 如果没有完整的面部图像,很难确定这是否是你的双胞胎. So, 下次你想说数字双胞胎的时候, 要知道有很多考虑因素,包括监控什么, 以及这将需要多少计算内存和数据存储. 微米, 作为工业存储解决方案的领导者, 提供广泛的嵌入式内存,包括我们基于1-alpha技术的LPDDR4/x和LPDDR5/x解决方案,用于快速AI计算, 我们的176层NAND技术嵌入到我们的eMMC和UFS存储解决方案中. 这些内存和存储技术将是满足您所需的计算需求的关键.

1.  IDC FutureScape, 2021

2. “机器学习中的参数计数(《沙巴体育结算平台》,2021年)

Sr. 细分市场经理

会弗洛伦蒂诺

威尔·弗洛伦蒂诺是一名高级球员. 美光科技工业业务部市场营销经理. 他的职责包括在工业领域(如工业物联网和工业边缘计算)提供市场情报和主题专业知识,以支持新沙巴体育结算平台路线图内存解决方案. Mr. Florentino在嵌入式半导体技术领域拥有超过20年的经验, fpga, 微控制器, 和记忆, 主要侧重于工业应用.