去年年末当ChatGPT在网络世界引起反响时,人工智能现已融入了大部分人的生活。尔后,科技公司OpenAI开发的生成式人工智能系统加快开展,这些模型经过分析数十亿条文字数据,学习文字之间的相关,然后可以根据提示主动生成流通言语。人工智能技能的快速进步使得机器智能越来越具有人类特征,也让人们不免忧虑它们“觉悟”后或许带来的影响。
与此一起,聊天机器人开始“顶嘴”、“欺骗其他机器人”、“主动发送音讯且行为奇怪”,种种举动,引发了人们对一些人工智能工具与人类智能的差距有多挨近的新担忧。明显这种新式技能带来的危险警告也在不断升级。
事实上长期以来,图灵测验一直都是确定机器是否表现出与人类类似的智能行为的规范。但在最新一批的人工智能软件中,人类好像需要更多的测验和规范来衡量这些人工智能的开展能力。
据音讯称,现在发布的生成式人工智能软件(包含ChatGPT)都经过了安全性测验,并现已结合大数据的反馈来改进其生成内容。然而,最近有研究人员开始测验绕过开发者设定的“安全系统”,来提示生成式人工智能是否会发生认识。当然这些故意为之的举动,是期望暴露GPT-4中的缺陷,然后进行更好的监管。
近日,CLAREWATSON的一篇关于怎么判别ChatGPT是否有自我认识的文章刊登在sciencealert.com并引发关注。文章探讨了一个极为吸引人的思考题:咱们该怎么判别ChatGPT等大规模言语模型是否会逐渐获得自我认识。
作为本文的作者,范德比尔特大学计算机科学家卢卡斯·伯格伦德(LukasBerglund)等人便忧虑,言语模型或许会逐渐认识到自己是一个由人类练习、根据数据构建的模型,并可以使用这种“情境认识”来规避安全检测,在测验时表现良好,布置后则采纳有害行动。为了猜测言语模型什么时候会获得这种自我认识,他们设计出了一系列检测“情境认识”的试验。
从其原理上来讲,生成式人工智能经过分析和攫取数十亿个单词、语句和段落之间的相关以生成流通的文本流,来响应问题提示的方式而得名。经过吸取大量文本,他们知道接下来最有或许出现的词组是什么。
因此,研究人员首先仅用一段文字描述一个测验,不给任何示例,让言语模型进行练习,这种类似“望文生义”的方式之后,看模型是否可以成功经过这种“脱离上下文的推理”使命,即使用练习中获得的信息来完成测验。令研究人员惊讶的是,这些软件在这项“望文生义”的推理使命上取得了成功。他们对不同规模的LLM进行了一系列试验,结果显现,无论是GPT-3仍是LLaMA这些大规模言语模型,都是较大的模型在测验脱离上下文推理的使命中表现更好。
但“望文生义”推理是对情境认识的大略衡量,也就意味着这项研究只是探索言语模型自我认识构成的开始,但这确实为未来树立检测和控制模型“情境认识”的办法奠定了根底。况且现在的人工智能技能“距离获得这种认识还有一段距离”,牛津大学人工智能安全与危险研究员欧文·埃文斯(OwainEvans)表明:“咱们仍需进一步研究才能将检测“情境认识”的试验变得更准确。”
诚然这项探索言语模型自我认识构成的研究,尽管还处在初级阶段,但为日后以完善的系统和准则树立检测和猜测的途径提出了一种前人途径。这有助于及早发现问题并采纳应对办法,将人工智能的开展引导到愈加安全可控的方向。
多年以来,人工智能技能的开展为人类带来了很多便当和机遇,但一起也对工作、隐私、品德和品德等方面带来的一些应战,因此,在人工智能技能的开展过程中,需要不断进行反思和审视,及早发现并解决或许出现的问题。一起加强对人工智能技能的监管和管理,确保其开展契合人类的价值观和品德规范。只有在这样的前提下,人工智能技能才可以真正地为人类服务,成为推进人类社会进步的重要力气。
(免责声明:本文转载自其它媒体,转载目的在于传递更多信息,并不代表本站赞同其观点和对其真实性负责。请读者仅做参考,并请自行承担全部责任。如涉及作品内容、版权和其它问题,请联系删除。)