NVIDIA宣布推出开源软件NeMo Guardrails,藉此作为以大型自然语言模型为基础的自动生成式人工智能背后「防线」,藉此避免人工智能技术危害数据隐私,或是产生伦理道德问题。

在越来越多人担心自动生成式人工智能技术应用背后充满不确定性,因此可能造成自动生成内容有误,或是影响用户个人隐私安全,甚至可能引发更多伦理道德问题情况下,NVIDIA作为以GPU产品加速人工智能技术成长的厂商,更说明自己不能因此造成更大问题产生。
此次宣布推出开源软件NeMo Guardrails,并且通过GitHub对外提供使用,或是通过NVIDIA AI Enterprise管道取得完整技术支持,更计划将NeMo Guardrails与现有NeMo框架整合,让人工智能技术应用能有「防线」作为保护,避免人工智能运作超出原本想像与可控范围。
NVIDIA表示NeMo Guardrails将可让以大型自然语言模型为基础的自动生成式人工智能,在精确、适当情况下以符合安全及合理范围内运作,并且通过主题安全护栏、安全护栏,以及保全护栏校准方式,让人工智能技术维持一定可控。
而护栏设计则包含避免人工智能技术偏离原本对应领域,并且确保人工智能回复内容正确,同时过滤非必要的错误内容,使其引述可信来源内容,另一方面也确保人工智能建立安全连结,让企业、一般开发者能通过NeMo Guardrails避免人工智能出错。
藉由将NeMo Guardrails开源,企业或开发者能通过简单几行编码内容,让NeMo Guardrails与既有应用服务整合,NVIDIA更强调NeMo Guardrails是以累积多年研究资源建立而成,预期藉由对外开源让更多开发者、企业取用,藉此让人工智能技术应用可以变得更加安心,并且消弭市场对于人工智能技术应用发展的担忧。