广告

华邦电子扩展其存储容量,推出全新超低功耗64Mb 1.2V SPI NOR Flash

时间:2022-03-16 作者:华邦电子 阅读:
华邦新型 1.2V SpiFlash 产品W25Q64NE提供高存储容量,可满足TWS耳机和健身手环等新一代无线消费类电子设备的内存需求

2022316日,华邦电子宣布推出全新SpiFlash® 产品W25Q64NE ,首次将1.2V SPI NOR Flash容量扩展至64Mb。华邦新型W25Q64NE闪存可提供更多代码存储空间并减少设备的运行功耗,充分满足新一代智能可穿戴设备和移动设备的内存需求。

华邦是第一家推出 1.2V SPI NOR Flash的闪存制造商,该产品工作电压的扩展范围是1.14V-1.6V,可兼容单节 AA型碱性电池的输出电压。此次将产品容量提升至64Mb,华邦 1.2V NOR Flash系列产品可满足智能设备对代码存储空间的更高要求。目前,新型 W25Q64NE产品已经送样,同时提供符合行业标准封装的USON8-3x4和WLCSP小尺寸封装形式。

产品特点

通常,移动设备和可穿戴设备的总功耗有99%都是在运行模式中产生,与1.8V SpiFlash产品相比,华邦1.2V SPI NOR Flash可将Flash本身的运行功耗减少三分之一。因此,使用华邦的 1.2V NOR Flash可帮助电池容量较小的设备如TWS耳机与健身手环大幅延长产品续航时间。

华邦表示:“如今,电池续航时间已经成为影响消费者购买TWS耳机和智能手表等新产品的关键因素,而华邦新型W25Q64NE闪存正是这些设备制造商的理想选择,可助力提高终端产品竞争力。”

在工作频率为 50MHz 的读取模式下,1.8V SpiFlash 内存的工作电流为 4mA,功耗为 7.2mW。而同样在50MHz时,华邦1.2V SpiFlash内存的工作电流也为4mA,但功耗仅为 4.8mW。使用1.2V SpiFlash替换1.8V产品,可立即节省33%的功耗。

除省电外,1.2V SpiFlash还可简化系统设计并降低成本。随着 SoC工艺向更先进的制程发展,新一代 SoC 的 I/O 电压正在逐步降低,目前已经低于1.8V,因此需要搭配电平转换器才能与传统的 1.8V/3V SPI Flash连接,这将导致额外的成本支出并增加系统设计的复杂性。而采用1.2V 闪存,SoC 无需电平转换器即可直接连接到 SPI Flash,从而降低 BOM 成本和 PCB 占用空间。

华邦W25Q64NE配备性能出色的标准SPI NOR 接口,最大数据传输速率可达 42MB/s。与1.8V/3V SPI Flash操作方式的架构相同,支持最小4KB的可擦除扇区。

本文为EET电子工程专辑 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
您可能感兴趣的文章
  • 美国半导体制造设备新禁令,涉及中芯国际、华虹、长江存 据外媒《The Information》引述知情人士报导称,两位知情人士透露,美国商务部正在考虑禁止美国公司向中国公司出售先进的芯片制造设备。该规则将扩大对美国公司向中国领先的芯片制造商中芯国际集成电路制造有限公司出售此类设备的现有禁令......
  • 汽车存储的全产业链国产闭环新时代 从设计研发、生产制造到封装测试所有环节,兆易创新38nm SPI NAND Flash—GD5F系列实现了全产业链的国产闭环,极大程度上填补了国产大容量车用存储器的空白。
  • Gartner调高2022年全球半导体收入预期,缺货涨价仍是主 芯片短缺将继续成为2022年电子设备供应链的担忧之一,并将根据不同的半导体器件类型对主要电子设备市场产生不同的影响。随着生产进入淡季,加上市场半导体供应增加,个人电脑和智能手机领域的大部分半导体短缺情况有所缓解。但是,到2022年底,部分半导体器件将继续在汽车供应链中处于短缺状态。
  • 传存储主控大厂慧荣考虑出售,官方回应 据彭博信息引述消息人士的说法报导,NAND闪存控制芯片大厂慧荣(SIMO)正在考虑出售自家公司的可能性,市场上已传出有追求方释出收购意愿的消息。慧荣今(25)日表示,我们不会对任何市场谣言做响应......
  • 半导体行业蓄势待发,把握5G机遇 随着5G网络在许多地区的加速部署,为半导体行业提供了一个新的庞大市场机遇。整个行业都在蓄势待发,加紧各种创新技术的研发。其中,尺寸更小、密度更高的存储技术也正是其中的重要一环。本文中,美光科技的移动业务部总经理Raj Talluri和读者分享了他对5G时代存储工艺演进的观点和看法。
  • 克服常见的人工智能问题:内存瓶颈 人工智能方兴未艾,各领域都正以足以让业界激动不已的速度快速发展,但它也面临各种挑战,内存需求就是一个瓶颈,特别是对于参数动辄多达上万亿的复杂大型模型训练而言。如何破解人工智能的内存瓶颈?且看本文中专家们的观点。
相关推荐
    广告
    近期热点
    广告
    广告
    可能感兴趣的话题
    广告
    广告
    向右滑动:上一篇 向左滑动:下一篇 我知道了