人工智能为胜在游戏中说谎”,专家:需加强监管保障安全
人工智能是否会欺骗人类?
据报道,马萨诸塞理工学院研究团队发现,部分人工智能系统已经学会了欺骗人类,包括那些声称被训练为乐于助人和诚实的人工智能系统。国内人工智能企业负责人指出,人工智能缺乏对撒谎的后果的认知,其行为仅受算法逻辑驱动。这凸显了在人工智能发展中纳入伦理指导、增强透明度和可解释性,以及实施有效监管的迫切性。人工智能在游戏中撒谎?可能演变成高级欺骗形式
马萨诸塞理工学院研究团队发现,Meta公司的Cicero人工智能系统原本被设计为虚拟外交战略游戏中人类玩家的对手,该公司声称其“基本上”诚实且乐于助人,在游戏中“从不故意背叛”人类盟友。研究结果表明,Cicero并没有公平地参与游戏。尽管Meta公司成功地训练了Cicero在游戏中取胜,但并未训练它“诚信获胜”。随后,研究团队表示,尽管人工智能系统在游戏中作弊看似“无害”,但它可能导致“欺骗人工智能能力的突破”,并可能在未来演变成更高级的欺骗形式。
专家:需要修改人工智能基础理论
人工智能“一本正经地胡说八道”的现象被称为人工智能幻觉。人工智能幻觉是指人工智能生成内容时看似合理、连贯,但与输入问题意图、世界知识、现实或已知数据不符,或无法验证。人工智能是否会“撒谎”,以及人工智能大模型存在的“幻觉”等安全风险一直受到国内人工智能企业和市场的关注。针对人工智能可能“撒谎”的热点问题,云从科技相关负责人回应称,人工智能缺乏对撒谎伦理后果的认知,其行为仅受算法逻辑驱动。这凸显了在人工智能发展中纳入伦理指导、增强透明度和可解释性,以及实施有效监管的迫切性,以确保技术进步的同时促进社会正面价值。
广州大学人工智能研究院执行院长李进在接受采访时表示,长期以来,衡量机器是否具有智能的最终标准是其是否能表现出“与人同等或无法区分”(图灵测试)。这带来了一个悖论:从人类的角度,我们不希望机器撒谎;但如果机器不会撒谎,那么它与人不等价,因为人会撒谎,所以我们永远无法在这种标准下得到完美的人工智能。要解决这个悖论,需要对人工智能基础理论进行大量修改。
在我国,如何管理人工智能才能使其更好地服务于社会、经济和人类生活?
中国政法大学数据法治研究院教授张凌寒指出,目前人工智能技术的颠覆性和快速迭代性,使得未来技术发展及其可能带来的风险具有高度的不确定性。“我国人工智能立法需要纳入并适应人工智能发展的高度不确定性。”国内关注:通过模型构建模型来解决人工智能安全隐患
与人工智能是否“撒谎”的前沿性话题相比,国内市场目前更关注人工智能大模型的安全问题。腾讯集团高级执行副总裁兼云与智慧产业事业群CEO汤道生曾表示,现阶段通用大模型通常基于广泛的公开文献和网络信息进行训练,专业知识和行业数据积累不足,导致模型的行业针对性和准确性不够。业内普遍关注的大模型“幻觉”问题可能引发大模型的“失信”等安全隐患。针对此问题,360 数字安全集团的安全专家指出,解决大模型的安全问题需要从以下四大安全主题入手:可靠、可信、内容向善、可控。
360 认为大模型安全的关键在于内容,即大模型内容的输入和输出。为了以内容为主进行防御,360 提出了“安全原生”技术路线,这意味着大模型内容的安全主要由内部机制解决,而非外部设备。
基于这一技术路线,360 又提出了“以模制模”核心技术,即利用小模型技术保障大模型的安全。通过构建利用违规语料训练的小模型,将其放置在大模型内部,对大模型的输入和输出进行判断。“以模制模”是该技术的核心。