互联网改变世界,消除了人与人之间的沟通屏障,但个人隐私的泄露已经成为一个十分严重的社会问题,究竟该如何平衡?
通过互联网注册各类软件、账户,一些不法分子可以很容易就获取用户的详尽资料,从而实行信息犯罪。谷歌、FACEBOOK、苹果等世界科技巨头都因为泄露个人隐私问题领到过美国和欧盟的要求整改和巨额罚款。随着未来大数据、云计算、物联网和区块链的不断发展和广泛应用,人类生活趋于智能化、计算机化,个人隐私将越来越难以保护,也会出现更多的隐私泄露问题,因此,如何从现在开始就制定一系列科技隐私保护制度,加大隐私管理的力度是世界各国当前都需要做的。微信创始人张小龙说过“从历史来看,科技越发达,个人隐私会越少”,您怎么看待科技和隐私、伦理之间的关系?各位网友、粉丝,对于此话题你是怎么看的呢?你有何高见?快“畅言一下”跟大家聊聊你的看法吧。
一共有人参与 条评论
基于互联网的人工智能将会对人类社会产生巨大的影响,我们要审慎对待其中可能出现的灾难。互联网看上去是一个物理设备相互联结的网络,实际上其包含物理部分(或者硬件部分)和软件部分:前者是后者发展的基础。由于这两部分的迅速发展,互联网在当下及未来的智能社会中有巨大的发展空间。由于互联网上有大量各种类型的数据和人类社会的知识,工程师们借助于互联网这个平台实现产品的智能化。当前的许多智能化产品便是这么做的。正如人需要依赖于社会而生存与发展一样,人工智能也要依赖于某个网络环境。构建专门的物联网当然是一种实现人工智能生存环境的方式,但依赖于目前的互联网似乎更为可行,这样它们能够与人类进行交互,参与到人类社会的构建,成为智能社会的一部分。当前基于互联网的人工智能产品是初级的、非自主的,那种自主的、高级的“活”在互联网环境下某个虚拟世界中的人工智能或者“受控人工智能”似乎暂时还没有出现。一旦科学家或者工程师在基于互联网的某个控制的虚拟环境中发明了某个“受控人工智能”,并且它们被设计能够在虚拟世界中进化,那么它们的威力是巨大的,它们的泄露也是可能的。而一旦它们泄露,将会产生巨大的社会灾难:它们首先会泄露到网络世界之中并干预我们的网络世界;它们甚至会泄露到现实世界之中,通过现实化自身干预现实社会,造成社会困扰。虚拟世界不必然是人工智能的居住场所,正如实验室不必然是人造病毒的场所、核反应不必然在反应堆中进行一样。“智能泄露”及其灾难将会是未来重要的学术及社会问题。来源 | 《学术前沿》杂志及人民论坛网
算法的形式逻辑规定了数字拜物教的价值逻辑,进而建构了以形式逻辑为基础的意识形态认同逻辑。由于算法的数理逻辑就是形式逻辑的数学表现形式,所以算法的技术逻辑规定就表现为一种确定性的“是”与“不是”。算法的普遍应用过程,也是其形式逻辑的普遍展开进程。在这一过程中,算法通过自身的“求解能力”使自己获得了合法性,也使得科学层面的对与错一定程度上遮蔽了价值层面的善与恶、美的层面的美与丑。人们越是依赖于算法,就越是接受形式逻辑,越是用“是”与“不是”的形式思维来思考问题。如此一来,算法的形式逻辑重构了意识形态的认同逻辑,甚至一定程度上单一化了意识形态认同,即只要是对的就一定是好的,甚至是美的。算法不仅垄断了科学判断,还渗透进了道德判断和审美判断。所以,数字拜物教的“拜”是算法对意识形态认同逻辑的形式规定与重构,也是算法的意识形态在意识形态认同层面的体现。 数字拜物教还用数据与数据的关系来遮蔽人与人之间的社会关系,用算法逻辑的形式规定掩盖了其背后的应用逻辑。“数字拜物教并非人对数字的主观崇拜,而是资本的权力机制统治和驯服人的意识形态工具”[19]。数字拜物教所彰显的意识形态认同,要通过算法等数字劳动的技术特征去把握其背后人与算法应用的关系,及人与人之间的社会关系。数字拜物教所彰显的数据崇拜只是表象,其真正“崇拜”的是数据作为生产要素之一被纳入生产方式和社会实践背后的应用逻辑。所以,算法的科学性是由其应用逻辑的有效性所规定的,算法的正义性也是由其应用逻辑的标准来体现的。数字拜物教所彰显的意识形态认同背后,就是算法应用逻辑对人与数据关系的控制与再生产。 总之,算法的意识形态是算法技术在资本应用下,以自身的技术特征生成的一个具有极强控制力、极具隐蔽性的算法利维坦。但是,算法的意识形态与意识形态的算法是一体两面的关系。算法技术无论是数据选择、洗练,还是算法程序的设计,本身就是原有意识形态的实践产物。换言之,意识形态的算法是立足于现有意识形态格局对算法技术的再审视,以及意识形态运用算法技术出现的新特征,是算法的意识形态的逻辑起点。刘伟兵,复旦大学马克思主义学院
今天我想深入谈消费者在做数据分享的时候,他是怎么做数据分享的。这些年因为数据经济越来越蓬勃发展,所以也有更多的研究。实际上这些研究,一旦提到数据分享,大家马上想到的是所谓的数据隐私悖论,就是前些年很多的研究发现,数据隐私你要问消费者,他们很多时候在问卷调查里会说他们很担心这个事儿,他们很在意数据隐私的保护,但是同时很多时候大家又发现,尽管他说他在意,但是你给他一个小的好处,比如说给他买一个免费的午餐,他也就把电话号码把他的住址什么都告诉你了。 就是平台上给他一点小的好处,他也就随手把这些信息告诉你了,所以在学术界,大家就提出了有这样个悖论:他到底在不在意他的隐私,他在意的话,他就不应该这么随意的就把个人信息告诉了别人。 这个现象在数字平台上尤其常见,因为大家逐渐发现,很多App都需要数据分享的,似乎消费者也很愿意分享那么多数据。所以就有悖论这么一说,这个也经常在各种各样学术或者政策讨论上出现。 怎么来解释悖论?有不同的解释。有人说其实消费者尽管他们说他在意,也许他并不真在意,因为他真在意他就不应该这么随意的分享他的数据。也有人说悖论表示消费者已经完全的放弃了,因为在现在时代你不分享你数据,这些APP都用不了,所以也只能分享,尽管他很在意,但是他实在没有办法,这是一个无奈的选择。 还有一个法律界有很多解释,尤其在西方的文献里,还有一个说法。悖论存在是因为在问卷调查的时候这个问题提的不对,因为他提问题的时候有的时候提的很空泛的,你在不在乎你的隐私,当然大家都说在意,他没有问对他到底在意什么。 这个问题跟它的实际的分享,不是很精确的匹配了。举个例子,这是在支付宝的平台上做的一个问卷调查。大家知道支付宝上其实是有很多第三方的小程序的,每个小程序使用之前都需要用户做一个数据分享的授权,你第一次登录一个小程序的时候,都会有一个授权的过程,因为只有授权之后才能用这个小程序,这是数据经济时代很常见的一个选择。他们怎么做这些选择也可以帮助我们了解现在我们消费者的实际行为。作者:熊伟,美国普林斯顿大学金融学讲座教授及经济学教授、香港中文大学(深圳)经管学院学术院长
水木然早就说过:未来人类真正的敌人,不是生态环境,不是经济危机,不是核武器,而是“算法”。算法正在试图“驯服”人类,人们和“算法”的斗争,才是一场是决定人类前途和命运的战斗。 《美国科学院院刊》一项研究指出:如果你在Facebook的点赞超过10次,Facebook就能比你的同事更了解你; 如果你上面的点赞次数超过了70次,Facebook就能比你的宿舍室友更了解你; 如果在上面的点赞总次数超过150次,Facebook就能比你的父母兄弟姐妹更了解你; 只要你在上面的互动足够多,也就是提供的数据足够多,算法对你的了解最终会超过你自己。这就是可怕的算法!它不停的收集你的数据,站在高维解读你、透视你,审视你,知道你喜欢什么,想要什么,想干什么,然后帮你设定好行为路线,冥冥之中将你彻底掌控。 只要我们在使用手机,在使用汽车等硬件,那么我们的生物数据都被各大APP和平台收集,它们不仅可以掌握我们的兴趣/爱好和习惯,还可以随时监测我们的体温、血压和心率变化(依靠手指和键盘的接触),从而深度掌控每个人的情绪,需求和欲望。我们大笑,哭泣,生气,好奇等等,都会被它们感知,关键是它们不仅可以预测我们的感受,还可以操纵我们的感受,然后向我们抛售他们的东西,包括商品/思想/甚至选票。
日本通过在中国办所谓的书院,招日本学生前后约5000人,并以实习为名分配到各省进行地形地物测绘,精确到村庄、道路、桥梁,甚至到一口水井。他们将这些结果综合报告给日军参谋本部,然后就有了侵华战争。我们现在怀疑滳滴可能在步日本人的后程极积收集中国的资料,为向中国开战作准备。中央网信办抓的及时,我们坚决支持。
1
共7条信息 |