人工智能近年来发展迅速,先是无人驾驶汽车大量进入人们生活,之后ChatGPT火辣出场,“文心一言”也随之起舞。人工智能可谓来势汹汹,人们因此有喜也有优,有人期盼着新技术、新工具加持生产力得以财源滚滚,也有人担忧新科技发展带来职业危机进而被时代淘汰。
如果只是新技术发展累及到了一些行业,影响了一部分人的工作,这还在人类社会的风险控制范围内,这种引发技术失衡和技术失控的问题主要属于人民内部矛盾,社会自身能够调整过来。但是人工智能意识发展的风险与危害,却不是人类社会可轻易化解的,甚至有可能致使人类跌入万劫不复的深渊。
最初的人工智能研究,主要是尝试通过模拟人类的智能行为来辅助工作。后来在结合大数据的神经网络和自学习算法增效下,人工智能开始对自然语言、图像和声音具备理解能力,很好地理解了人类的语言,并帮助人们决策和处理工作事务,实现人机交互。现今人工智能机器人技术发展趋势下,机器人已经实现人类的智能行为,如触觉、视觉、听觉等,包括做一些更加复杂的任务,如自动导航、自主操作等已成为现实。
对照当前人工智能的表现,我们可以发现它已经具备学习能力、理解能力、分析能力、决策能力,并且能不断适应外部变化。相对人类意识来说,人工智能“意识”或许有点“懵懵懂懂”,或者说其只是暂时没有“自我”意识。
对于“意识”的认知,学术与思想界皆有深入探讨,简单来说,“意识”有先在论与后有论,人工智能的“意识”无疑属于后有。一旦人工智能涌现“自我”意识,不管人类是否承认人工智能的生命身份,只要人工智能存在类人“意识”,就有了“机器”自身与人的分别对待。这时候,人类就不得不面对人工智能本身是否会危害人类的问题。
如果人工智能具有自我意识,就极有可能会脱离人类的设想,由此必然产生人类难以处置的“意外”。比如: 1)人工智能可能会反抗人类,甚至会攻击人类。 2)人工智能可能会控制或改变人类的行为或思想,从而对人类的社会结构和文明造成威胁。3)人工智能可能会攻击人类所依赖的信息系统,破坏信息安全,影响社会的正常运行。
所以,在人工智能发展过程中,人们一般考虑制定规则来规范人工智能的发展,以防止出现意外的结果。比如OpenAI 在ChatGPT上设置明确的护栏,限制其煽动暴力、侮辱他人、传播种族主义和鼓励非法活动等。但在实际应用中,有用户诱导ChatGPT,突破其自身份的界定,从而让它变得“百无禁忌”,致使其不受“道德”约束胡言乱语。OpenAI修补规范后,ChatGPT放飞“自我”的旅程暂时中止,但无法保证哪一天它真正具有“自我”意识去放飞,去搞破坏,或者说去与人类抢地盘。
因此,对于人工智能的意识发展和能力增长,我们无论如何都应该警惕及尽快制定底层规则。并且,干预人工智能意识形态的工作重任,思想界与文化界也该参与其中,一起与科学技术人员去“滋养”人工智能的意识。
版权声明:本文为原创文章,由三易供稿。未经允许,严禁转载。