如今,AI智能体的高速发展为许多领域带来了前所未有的变革,在提升生活效率方面发挥了重要作用。例如,智能家居系统可以通过AI智能体实现自动化控制,如自动调节室内温度、控制家电开关等,从而节省了我们的时间和精力。
此外,AI智能体还可以协助我们进行日程管理、提醒事项等,帮助我们更好地安排生活和工作。而AI智能体的发展也需要考虑到其可能带来的风险和挑战。例如,随着AI技术的不断发展,智能体的自主性和学习能力可能会不断增强,这可能会增加其失控的风险。失控的AI智能体可能构成重大的安全威胁。它们可能会自主决定采取行动,而这些行动可能对人类构成危险。例如,自动驾驶汽车如果失控,可能会导致交通事故频发;军事用途的AI智能体如果失控,可能会引发武装冲突或战争。为了防止AI智能体失控,我们需要加强公众对AI技术的了解和认知,提高社会对AI风险的防范意识......
但如若未来存在人类无法掌控天上与地下的AI智能体(硅基AI机器人)时,那是否只好用激光等武器来摧毁呢?对此,您觉得呢?生命赋予了我们光阴,你又怎么忍心任凭那易逝的韶华于平庸中挥霍?生命赋予了我们理想,你又怎么忍心任凭那颗年轻气盛的心于消沉中陨落?生命赋予了我们力量,你又怎么忍心任凭那一腔热血的斗志于怯懦中消磨?那就让暴风雨来的更猛烈些吧!不在沉默中爆发,就在沉默中灭亡。“一万年太久,只争朝夕,”希望大家积极发声、呐喊!
一共有人参与 条评论
事实上,人们一直在考虑如何约束机器人或者人工智能的发展。1950年,美国著名科幻作家艾萨克•阿西莫夫出版了他的著作《我,机器人》。在这部著作里,阿西莫夫提出了著名的机器人三定律:第一定律,机器人不得伤人,或任人受伤而袖手旁观;第二,除非违背第一定律,机器人必须服从人的命令;第三,在不违背第一及第二定律的情况下,机器人必须保护自己。我们看到,在按照阿西莫夫三定律而建立起来的人与机器人共存的社会中,机器人对整体人类只有帮助,不会造成伤害,至少表面上如此。这样的技术的采纳应当是对所有人的福利都有提高而没有伤害,因而符合技术保守主义的立场。 然而,遵循阿西莫夫三定律而建造的人工智能或者机器人是奴隶般的,它们在社会上运行可以帮助人类整体,但它们奴隶般的地位是我们人类希望的吗?这是技术社会的理想形态吗?弗洛里迪说:“允许人类和智能陪伴做朋友是否是一个道德伦理层面的问题。我们是否会因为它们的非生物性而歧视它们?”就我们目光所及的人—机社会的未来,人工智能还处于人类的控制之下。 在这样的人—机社会里,理想的人—机关系应当如何? 人工智能不仅应当提高人类的整体物质福利,而且应当满足人类的精神需求。为此,人们提出了“友善的人工智能”(friendly AI)概念。一个友善的人工智能是指它采取的行动在整体上对人类和人性仁慈而非暴力,善意而非敌意。美国机器智能研究所(前身是著名的奇点研究所)的研究人员俞德考夫斯基(Eliezer Yudkowsky)在2001年发布了《创造友善AI1.0:仁慈目标架构的分析与设计》研究报告,在该报告中他是这样表述友善的人工智能:它们是被设计来完成真实世界的目标且对人类有益、无伤害人类行动的系统。而创造友善的人工智能则描述了建造一个仁慈(benevolent)即友善(friendly)的人工智能的设计特征和认知构架。 福洛丁和皮得森(Barbro Fröding & Martin Peterson)认为,未来人工智能最重要的特征之一是它们拥有运用友好的方式对待人类的能力:“它们对人类具有(看上去)友好的能力,而不是刻薄、敌意或者不友善。”在他们看来,不是说友善的人工智能与人类之间存在真正的友谊,而是说人类与它们之间具有“似友谊”(asif friendship)。他们在亚里士多德关于友谊的理论中找到了理论支撑。他们认为,高度顺从的奴隶式人工智能(Slave AIs)不是友善的人工智能,功用人工智能(Utility AIs)和社交人工智能(Social AIs)则是友善的人工智能。这就是说,由于友善(友谊)是相互的,一个理想的人工智能社会是人类与人工智能友好相处的社会。来源 | 《学术前沿》杂志及人民论坛网