当前位置:主页 > F惠生活 >爱恨交织人工智能双刃剑出鞘 >

爱恨交织人工智能双刃剑出鞘

   时间: 2020-07-23   来源: F惠生活 阅读: 772

爱恨交织人工智能双刃剑出鞘
人工智能真可怕!你看,那个影星怎幺去拍色情视频了?你在网上说了句话突然遭围攻,你确定那些来势汹汹的不是机器人、机器手?那架萌萌的无人飞机,带着摄像头,还装了什幺?谁在控制它?年迈父母家裏那个打扫卫生的机器人,怎幺语音合成出一堆粗口谩骂的言词?如果黑客侵入了心脏手术机器人的操作系统呢?
这种事估计也会增多,如果英国剑桥大学生存风险研究中心(CSER)新公布的一份报告裏那些令人毛骨悚然的可能性变成现实的话。
这份题为《邪恶的AI》(全名《对人工智能的恶意使用》,TheMaliciousUseofArtificialIntelligence)阐述人工智能这一项利器加入落在歹毒之手,可能被用来造什幺孽,做多少恶。
有人觉得人工智能比核武器更危险,今天看似可爱、无辜、有用的AI,很可能不久就会变成无法驾驭的大怪物。
最为惊悚的是AI强化学习领域,就是让人工智能通过强化学习,在没有人类範本或引导的情况下具备超人类的智能。
有些问题其实已经发生,比如用机器学习软件篡改色情视频人物头像,用语音合成软件製作假新闻节目。
人工智能可以为善,也可以为恶,因为它就是一个工具,一个威力可以无限的工具。
报告认为,对于AI的潜在威胁,人类再也不能视而不见。危险迫在眉睫。政府、科研和产业界面对「邪恶AI」,必须联手协同作战。
鑒于其双刃剑特性,AI系统设计者应该更多着力于如何防範滥用、误用和恶意使用,以及如何化解这种情况可能带来的危害。
政府和立法机构也必须拿出新的法律,制定新的法律框架来规範人工智能领域的发展。
网媒《连线》(Wired)作者汤姆·西蒙奈特(TomSimonite)建议,AI和机器学习研发人员在发布新成果前多权衡利弊,三思而后行。他写道,这跟AI领域近年来的开放精神有点出入,但做这个让步是值得的。

需要共识

AI俨然已经融入当下人类社会和生活,而且正在以几何级增长的速度扩展自己的存在,但围绕人工智能的争议非但不见减少,反而日渐高涨。
三、五年前,人们更多谈论的是机器人能为人类分担哪些劳作,而随着人工智能越来越「聪明能干」,人类似乎越来越焦虑不安,「威胁」、「危险」之类字眼更频繁地与AI联繫在一起。
如果说在不久的将来人类或沦为机器人的奴役,或被毁灭,那是夸张、科幻。但是,科学界已经就人工智能对人类社会可能构成的威胁形成了一定共识。
英国剑桥大学CSER中心最新发布警告,说人工智能恰似一把利剑,落入坏人手中后果不堪,比如无人飞机变成了导弹、运用假视频操纵舆论、黑客攻击自动化,等等。
CSER最新发布的《邪恶AI》报告的内容来自一年前在牛津举办的一次研讨会。来自学术、社团和业界的14个机构的26名专业人士参加了研讨,涉及数码、实体和政治这三个AI最可能被恶意使用的领域。
CSER中心本身可以说是人类中较早意识到AI潜在威胁的人做出的应对努力。中心于2012年成立,任务是针对可能导致人类灭絶的四大「恶魔」研究对策,确保人类不毁于自己製造的恶魔手中。
四大「恶魔」:人工智能(AI)、气候变化、核战争、邪恶生物技术(roguebiotechnology)。
这个机构也被戏称为「终结者研究中心」。
CSER的沙哈·埃文(ShaharAvin)强调,报告讨论的风险仅限于已有的和五年内可能出现的AI技术产品,不包括对未来的展望。

双刃剑

CSER执行总监SeánÓhÉigeartaigh博士指出,AI将改变一切;《对人工智能的恶意使用》这份报告可以说是对今后5-10年的展望。
那幺,在可以预见的将来,落入邪恶之手的AI可能带来怎样的灾难呢?《邪恶AI》归纳了一部分:

比如,谷歌开发的AI「阿尔法狗」(AlphaGo),就是战胜国际围棋大师李世石(LeeSe-dol)的那个,在黑客手裏就可以被用来归纳数据规律,搜索编码中易于攻破的薄弱环节;歹毒之人或有邪恶目的人可以买无人驾驶飞行器,用人脸识别软件训练它,使它能够自行搜索、攻击具体目标;可以让机器人自动化操作,製作和发布假视频来操纵舆论以达到某种政治目的;黑客可以用语音合成技术来假冒袭击目标,骗取关键信息。末日警告

不断发出AI威胁警告的知名人士包括英国科学家斯蒂芬·霍金(StephenHawking)。他认为AI会是「人类历史上最重大的事件,不幸的是,也可能会是最后的重大事件」。
埃隆·马斯克(ElonMusk)让特斯拉自驾车上路、重型猎鹰可回收火箭上天,却警告说人类可能毁于人工智能。马斯克曾说,AI之险尤甚于核武。
他们的担心主要有两点:一是具备人类决策能力的机器人没有人类道德约束,将来是否能够具备也是个疑问;二是人类创造了AI,AI又能创造更高级的超级智能,人类还没来得及设置防範措施,就可能面临机器失控的局面。
AI在军事上的利用是最令人恐惧的情况之一。如果把AI的冲击力跟核弹相提并论,那幺人类对核武的规範、控制或许可以为AI提供参照。
法律专家指出,人工智能军备竞赛已经开始;如果核武竞赛有值得借鑒之处,那就是在允许AI机器人上战场前,必须有某种公约加以约束。

人类2.0版

《人民平台》(ThePeople’sPlatform)一书作者阿斯特拉·泰勒(AstraTaylor)认为,人工智能对人类社会的影响主要在两个方面,一个是数据的寡头垄断,一个是重新定义人类和人工智能的关係,属于哲学层面的冲击。
人工智能的进步会加速中心化的趋势,未来很可能会出现少数几个庞大的、多功能的、基于云计算的商业智能寡头。他们实际上垄断了数据的收集和构建方式,以海量的信息构建一个框架,引领和影响众人的决策。这种力量如果不加规範,没有任何约束,后果堪虞,有史为鑒。
在哲学层面,人工智能将重新定义人类和机器的关係,尤其是双方的主从关係和力量对比。简而言之,一直以来都是
埃隆·马斯克(ElonMusk)一直在警告人类对机器人切毋掉以轻心,以免沦为机器的奴役或灭絶。
他最经常跟PayPal、特斯拉电动车、重型猎鹰可回收火箭和火星移民计划联繫在一起。但较少人知道,他已经开始一项更令常人感到不可思议的事:用人工智能来「製造」增强版人类。
2017年,马斯克对媒体说,短期内,Neuralink主要研发治疗严重脑部疾病的仪器,但长远目标是强化人类(humanenhancement)。有报道称这个公司在研製可以植入人脑的「脑机界面」(brain-computerinterfaces,BCIs),人脑和电脑的零接触交流互动。
嗯,就是说,一个智力平平的普通人,植入一个芯片,然后就瞬间成了功夫大师,轻鬆击败歹徒,好像科幻电影裏那样?现在,对此表示「并非没有可能」的人是越来越多了。

贫富分化

创新工场创办人李开复2017年曾在《纽约时报》撰文谈AI的冲击。他认为,AI对人类社会的真正威胁并不在于技术层面,因为它们跟人类并不存在智力竞争,只是工具。
AI对人类社会真正的威胁,在他看来,是对工作的含义、财富的创造和分配方式的打碎、重塑,由此「引发前所未有的经济不平等,甚至改变全球力量均势。」
这些他认为迫在眉睫的挑战,包括大量工作被机器人取代,从製造业到服务业,各层面都可能有大量工作岗位消失。掌握AI技术的企业在这个过程中挣得钵满盆满。大规模失业的同时,财富迅速并大量集中到少数人手裏。
这些社会、民生和政治问题,必须在政策和立法层面给与及时、妥贴的应对。

上一篇:
下一篇:
猜你喜欢...
相关信息
图文欣赏
精彩推荐 
搞笑百态 
精彩文章

申博太阳城_申博官网管理网|百姓生活动态|网站地图 申博76969 申博会员网址aa0000