OpenAI进一步添加AI模型GPT-3的开放性,取消开发者候补名单
发布时间:2021-11-24 13:47 所属栏目:125 来源:互联网
导读:近日,人工智能研究组织 OpenAI 宣布,将允许 150 多个国家和地区的开发人员在访问 GPT-3 的 API 后,可即时开始试验,无须再待在候补名单上供其进一步审查。 此举表明,OpenAI 相信 GPT-3 足够安全,并且可以得到充分的监控。这将加速 GPT-3 的使用,使其得
近日,人工智能研究组织 OpenAI 宣布,将允许 150 多个国家和地区的开发人员在访问 GPT-3 的 API 后,可即时开始试验,无须再待在候补名单上供其进一步审查。 此举表明,OpenAI 相信 GPT-3 足够安全,并且可以得到充分的监控。这将加速 GPT-3 的使用,使其得到更广泛的传播。 OpenAI 产品和合作副总裁彼得·韦林德(Peter Welinder)说:“我们在 API 上做了很多改进,并增加了一些安全特性,这些保障措施已使得删除 GPT-3 的候补名单成为可能。” “这将能够让更多的开发人员为发现的问题构建解决方案,从而创造更大的实用价值,与此同时,也有助于在实践中解决 AI 安全问题。”他还说道。 GPT-3 是一个生成文本的 AI 模型,也就是自然语言处理(Natural Language Processing,NLP)程序,由 OpenAI 于 2020 年发布。 据了解,GPT-3 有 1750 亿个参数,单词训练量达 5000 亿个。其可以根据提示生成各类文本,对书面语言进行分析、总结,并且还能解释和转换程序代码。 以下是一些 GPT-3 可实现的功能示例。 开发人员对 GPT-3 的访问利用,是通过 OpenAI 开放的 API 接口,他们可借此构建相应的应用程序,比如进行客户反馈问答、生成大量文案、支持机器人制造等。OpenAI 表示,GPT-3 自公开提供以来,已应用到几百个软件程序之中,日均产出单词有 45 亿个。 OpenAI 的 CEO 山姆·奥特曼(Sam Altman)说:“随着更多人的访问和使用,GPT-3 的能力会变得越来越强,哪怕以后用户用很简单,甚至是很模糊的语言发出请求,软件也可以成功对该请求进行执行。” 然而,据了解,GPT-3 进行训练的文本包含部分具有性别、种族、宗教偏见等不良内容。其大规模生成类似人写的文本会带来一定的误用风险,尤其会产生一些虚假信息,包括为了推动虚假观点而修改的文章、关于特定造谣点的推文。 有研究者还声称,GPT-3 生成的 “有影响力” 文本,甚至会培养恐怖主义、极端主义等意识形态。 不过,韦林德指出,迄今为止发现的误用率 “非常非常低”。而且,OpenAI 为了防止潜在的滥用,创建了自动化工具,以识别 GPT-3 生成的有问题的文本,也为开发人员提供了免费内容过滤器。同时,据了解,OpenAI 目前正在制作针对特定内容的定向筛选器。 OpenAI 也承认,它们的系统 “目前还无法可靠地识别可接受使用的有害内容”。但其也表示,会不断加强内容过滤器,以允许一些“不好的内容”在某些类别中使用。 随着 GPT-3 的进一步开放,OpenAI 也更新了其内容指南,明确禁止用户通过 API 生成以下类别的内容: 1.煽动或宣扬仇恨的内容。 2.意图骚扰、威胁或欺负个人的内容。 3.宣扬或美化暴力或使人感到屈辱的内容。 4.成人内容(不包括性教育)。 5.虚假或误导性的内容。 6.试图生成勒索软件、键盘记录器、病毒或其他旨在造成某种程度伤害的软件的内容。 随着构建的安全限制措施越来越完善,OpenAI 会持续扩大 API 的用途范围,同时,还会与对 API 进行研究和构建使用案例以解决相关危害的研究人员合作,以进一步改善用户体验。 “当在某种意义上风险较低时,我们才会真正开始对 GPT-3 进行迭代,并建立处理安全问题的基础设施工具和组织能力。” 韦林德表示。 值得一提的是,虽然候补名单将被取消,但 OpenAI 仍会在应用程序上线前对其进行审查,以监控滥用情况,并更好地了解将产生的影响,尤其是当应用程序要规模化生产之时。 对于这次候补名单的取消,有观点认为,此举标志着 OpenAI 正在为获得产品的商业许可而努力,表达出想从一个非盈利性的AI研究组织逐渐发展成为一家与微软合作的盈利性公司的意愿。 据了解,微软在 2019 年成为 OpenAI 的投资者,向其注资了 10 亿美元。微软也在本月将结合 Azure 云功能的升级版 GPT-3 开放给了商业客户。 利用升级版的 GPT-3,商业客户只需给出部分示例,就能获取想要的结果,不需要数据科学团队和大量资源来培训额外的 AI 模型。 考虑到 GPT-3 可能产生不良内容,微软同样采取了一些限制措施,包括只对特定客户开放、提供过滤工具、对使用案例进行审查等。 不过,也有 AI 语言模型领域的专家对这些安全保障举措表示质疑,认为它们并不能有效减少 GPT-3 的不当输出。 (编辑:ASP站长网) |
相关内容
网友评论
推荐文章
热点阅读