科学技术是第一生产力。放眼古今中外,人类社会的每一项进步,都伴随着科学技术上的进步。尤其是现代的科技技术突飞猛进,为我们的社会生产力发展和人类的文明开辟了更为广阔的空间。
随着我们知识经济时代的到来,科学技术永无止境的发展及其无限的创造力,为人类文明做出更加巨大的贡献。在科技方面,欧美、日韩等发达国家的科技水平确实要高一些,加上他们严谨的研究态度,生产出来的产品也让很多消费者包括一些专家学者赞不绝口......然而,科技是一把双刃剑,带来了不确定的因素,比如智能机器人,弱化了人类的存在,更甚者,如果把这些科技用于战争,污染环境,毁灭人类和地球,践踏人类文明,这样的高科技便不能被称作“科技”,而是“武器”,不要也罢。对此,您赞成吗?“我转发、传播了许多充满人性、良知、散发着正义光芒的文字,我拒绝了与邪恶同污合流”,快传播《共绘网》与智者同行吧!
一共有人参与 条评论
科技发展是双刃剑。一方面人工智能技术的发展呈现加速,另一方面是全球没有相关的框架和准则去规范人工智能的发展,就好像一个人高速驾驶没有系安全带一样,产生巨大风险。 比如科幻小说中著名的"机器人三定律"(Three Laws of Robotics),这是由美国科幻作家艾萨克·阿西莫夫(Isaac Asimov)在他的科幻小说中创造的虚构法则,如下: 1. 机器人不得伤害人类或因不作为而使人类受到伤害。 2. 机器人必须服从人类的命令,除非这些命令与第一定律相抵触。 3. 机器人必须保护自己,但前提是不得违反第一定律或第二定律。 这三条定律是作家虚构的情节,现实社会中并不存在,但是如果未来某一天AI有了自我意识,和人类发生冲突,那该怎么办? 马斯克的公开信也只是提出了这个难题,如何去保证人工智能的发展在可控范围内,问题的答案是什么,目前还没有解决办法。 一方面是AI对于人类社会的巨大推动作用,一方面是对于未来失控的担忧,而利益攸关方的立场并不一致,对于OpenAI、百度这样的科技公司,AI越强大,未来的商业前景和收益会越好,但是对于整个人类社会,如何将AI纳入可控范围,限制AI的无序发展,不能不说两者存在利益的冲突,还有就是现在面临的是AI管控从0到1的过程:谁来做这个裁判,制定规则执行规则,如何保证执行的效率和结果。 孙杨正
中国的崛起之路不靠战争。 我还要说一个方面。自从中国1978年开始崛起,中国并没有真正参与过任何战争。这是中国大崛起、大转型的时期,从一无所有到现在与世界上经济最强大的国家平起平坐。 看看美国的历史,或者德国、英国、日本的历史。这些国家在崛起时期都参与了很多战争。换句话说,中国在这一时期的发展过程中是非常克制的。英国剑桥大学前高级研究员、中国问题专家马丁·雅克
一切源于欲望。我早就说过了,人类科技已经达到了最好节点。再往前发展就是把人类推向灭亡,就算目前看似对我们有利的科技也一样,都是把人类推向离毁灭。人类永远离不开地球,毁灭会提前来到。如果现在停止向前发展,专心搞好农业和环境保护还为时不晚。人类不应该太过贪婪,满足最基本的需求即可。想在发展好的国家应该帮助落后的国家搞好农业,让更多人吃饱穿暖即可。其他方面都应该进行控制。
南怀瑾解释道:“今天,人们不断与电脑和机器产生连接,这样的连接正一步步改变他们的思维模式。可人们似乎并不明白正在发生的一切,而且完全没有停下来喘口气的意思。从这个意义上说,世界将跑得越来越快。” 他接着说道:“十九世纪,人类的最大威胁是肺炎;二十世纪,则是癌症;到了我们这个时代,尤其是二十一世纪伊始,是疯狂,或者叫精神病。”他顿了顿,继续解释道:“二十一世纪将变得格外地湍流涌动,现在已经开始逐渐显现出来了。我所说的‘疯狂’、‘精神病’,并不仅仅指芸芸众生的心理状态,还包括政治、军事、经济、教育、文化和医疗等在内的一切都将受到影响。”我能够体会南怀瑾论点背后的逻辑推理。十九世纪,太多人挤进了狄更斯笔下的都市深渊,这恰恰成了肺炎的培养皿——工业和城市化来得太猛太快。二十世纪,塑料及其他未经检验且不安全的人造材料扰乱了人类的基因库,带来了癌症之灾。科学,来得太猛太快。二十一世纪,根据南怀瑾的观点,信息、手机、数据包、日常生活中通信数据传输产生的每个位流将带来消耗性疾病,并将影响我们的大脑。——乔舒亚•库珀•雷默《权力、财富与这个世界的生存法则》
创新是一个无穷的、呈指数级增长的过程,一旦开始,就不会有自然约束能让它停下来,物理定律除外。 若没有暴政、集权、宗教等社会变革的影响,创意设计领域的发展也会随着创意素材的线性增长,呈超指数级增长。如同88个钢琴键能编出无穷无尽的乐章一样。
人类发展进化到最后会变成什么样子,估计谁也无法预测也不敢预测。最终会和地球一起毁灭还是能够飞出太阳系,在新的恒星系宜居的地球一样的新星球上,继续存活下去也不一定。目前看着很遥远的事,其实有些突发事件和灾难有可能真的把地球彻底毁灭,全部都成尘埃了。