您现在的位置是:首页 >要闻 > 2020-11-18 13:47:22 来源:

人工智能使智能应用更快更高效

导读 萨斯喀彻温大学(USask)的一种新的人工智能计算机 模型有望使智能应用程序(如亚马逊,苹果和Google的虚拟助手)更安全,更快和更节能。面部

萨斯喀彻温大学(USask)的一种新的人工智能计算机 模型有望使“智能”应用程序(如亚马逊,苹果和Google的虚拟助手)更安全,更快和更节能。

面部识别,天气预报,虚拟助手和语言翻译等“智能”服务依赖于称为“深度学习”的人工智能(AI)技术来预测用户模式。

但是这些AI流程通常需要太多的存储空间才能在移动设备上本地运行,因此数据通过Internet发送到外部服务器,这需要大量的电源,会耗尽手机电池的电量,并可能增加用户的隐私风险。

“我的方法在较小的“块”中分解了AI的计算过程,这有助于在电话上本地运行“智能”应用程序,而不是依赖外部服务器,同时降低了功耗,”美国电子与计算机公司的张浩说。工程博士后。

“这项研究可能会导致不同的方式来设计的应用程序和操作系统为我们的数字设备,如平板电脑,手机和电脑。”

Zhang进行了精确的仿真,将他的AI模型与当前电话系统上使用的AI模型进行比较,发现他的AI模型可以比当前市场上的设备更有效地同时运行多个应用。他的模型执行速度提高了20%(在某些情况下是两倍),并显示电池寿命可以延长一倍。结果发表在《IEEE Transactions on Computers》杂志上。

Zhang发现AI流程可以使用长度可变的较小四位序列有效地处理数据,因此他使用这些较短的“位块”构建了模型。当前设备使用固定的32位序列来更精确地处理数据。结果,电话或计算机不那么快,并且需要更多的存储空间来存储数据。

USask电气和计算机工程学教授,Zhang的主管Seok-Bum Ko说:“处理数据并不总是需要大的位序列。” “缩短序列可用于节省功率并提高速度性能,但仍可以保证应用程序正常运行。”

尽管结果令人鼓舞,但Zhang和Ko正在努力将其AI模型与大型计算机和电话系统集成,并测试该模型在现实世界中的处理器中将如何工作。

Ko说:“如果我们的研究进展顺利,我们可能会在三到四年内将模型与应用程序和系统集成在一起。”

由联邦机构NSERC资助研究的Zhang认为,USask是攻读博士学位的合适之地。学习深度学习的学位。作为城市大学的硕士生,他在Koa的监督下在USask进行交流实习期间经历了改变人生的经历。

他说:“两所大学之间有着良好的研究合作关系,在这里的实习经验非常好。” “我们在USask拥有良好的研究设备,可以支持我进行大量实验并研究许多研究主题,尤其是深度学习。”