知名物理学家史蒂芬·霍金已经去世,享年 76 岁



据 BBC 等多家外媒报道,知名物理学家史蒂芬·霍金已经去世,享年 76 岁。api


霍金的家人在周三凌晨发表声明,证明他已在剑桥的家中死亡。霍金的孩子 Lucy , Robert 和Tim 在一份声明中说:“咱们亲爱的父亲今天去世了!咱们感到深深的悲痛!”安全


曾有人问霍金,他的身体情况对科学研究是帮助仍是限制,他对死亡的恐惧又是什么。75 岁的霍金回答说,他很幸运可以从事理论物理学研究工做,这是少数几个不会受限于身体情况的领域之一。过去这么多年,他一直都在英年早逝的预期中生活着。他不怕死,但也还不急着死,在死以前他还有太多的事要作。并发



缅怀!框架


平生简介机器学习


史蒂芬·威廉·霍金,(英语:Stephen William Hawking,1942 年 1 月 8 日-2018 年3 月 14 日),英国物理学家与宇宙学家,现任职剑桥大学理论宇宙学中心研究主任。工具


霍金作出不少重要贡献,最主要的是他与罗杰·彭罗斯共同合做提出在广义相对论框架内的彭罗斯–霍金奇性定理,以及他关于黑洞会发射辐射的理论性预测(现称为霍金辐射)。性能


霍金是皇家文艺学会的荣誉会员,并曾经得到总统自由勋章,后者是美国所颁发最高荣誉平民奖。从 1979 年至 2009 年,霍金是剑桥大学的卢卡斯数学教授。学习


霍金撰写了多本阐述本身理论与通常宇宙论的科普著做,广受大众欢迎。其中《时间简史:从大爆炸到黑洞》曾经破纪录地荣登英国《星期日泰晤士报》的畅销书排行榜共计 237 周。ui


霍金患有肌萎缩性脊髓侧索硬化症,病情会随着岁月逐渐越发严重。他现已全身瘫痪,不能发声,必须依赖语音合成器来与其余人通话。霍金曾经有过两次婚姻,育有 3 名子女。人工智能


霍金曾在公开场合屡次发表关于人工智能的见解,不过他对于人工智能的发展一直持谨慎态度。在他看来,人工智能或许能根除疾病和贫穷,但也可能摧毁人类。


附霍金在 GMIC 2017 开幕式上的主题演讲:



让人工智能造福人类及其赖以生存的家园


在个人一辈子中,我见证了社会深入的变化。其中最深入的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。简单来讲,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。我不得不说,是好是坏咱们仍不肯定。但咱们应该竭尽所能,确保其将来发展对咱们和咱们的环境有利。咱们别无选择。我认为人工智能的发展,自己是一种存在着问题的趋势,而这些问题必须在如今和未来获得解决。


人工智能的研究与开发正在迅速推动。也许咱们全部人都应该暂停片刻,把咱们的研究重复从提高人工智能的能力转移到最大化人工智能的社会效益上面。基于这样的考虑,美国人工智能协会(AAAI)于 2008 至 2009 年成立了人工智能长期将来总筹论坛,他们近期在目的导向的中性技术上投入了大量的关注。但咱们的人工智能系统需要按照咱们的意志工做。跨学科研究是一种可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,固然还有人工智能自己的各个分支。


潜在的威胁:计算机智能与咱们没有本质区别


文明所提产生的一切都是人类智能的产物,我相信生物大脑能够达到的和计算机能够达到的,没有本质区别。所以,它遵循了“计算机在理论上能够模仿人类智能,而后超越”这一原则。但咱们并不肯定,因此咱们没法知道咱们将无限地获得人工智能的帮助,仍是被藐视并被边缘化,或者极可能被它毁灭。的确,咱们担忧聪明的机器将可以代替人类正在从事的工做,并迅速地消灭数以百万计的工做岗位。


在人工智能从原始形态不断发展,并被证实很是有用的同时,我也在担心创造一个能够等同或超越人类的事物所致使的结果:人工智能一旦脱离束缚,以不断加速的状态从新设计自身,人类因为受到漫长的生物进化的限制,没法与之竞争,将被取代,这将给咱们的经济带来极大的破坏。将来,人工智能能够发展出自我意志,一个与咱们冲突的意志。尽管我对人类一向持有乐观的态度,但其余人认为,人类能够在至关长的时间里控制技术的发展,这样咱们就能看到人工智能能够解决世界上大部分问题的潜力。但我并不肯定。


2015 年 1 月份,我和科技企业家埃隆·马斯克,以及许多其余的人工智能专家签署了一份关于人工智能的公开信,目的是提倡就人工智能对社会所形成的影响作认真的调研。在这以前,埃隆·马斯克就警告过人们:超人类人工智能可能带来不可估量的利益,可是若是部署不当,则可能给人类带来相反的效果。我和他同在“生命将来研究所(Future of Life Institute)”的科学顾问委员会,这是一个为了缓解人类所面临的存在风险而设立的组织,并且以前提到的公开信也是由这个组织起草的。这个公开信号召你们展开能够阻止潜在问题的直接研究,同时也收获人工智能带给咱们的潜在利益,并致力于让人工智能的研发人员更关注人工智能安全。此外,对于决策者和普通大众来讲,这封公开信内容翔实,并不是危言耸听。人人都知道人工智能研究人员们在认真思索这些担忧和伦理问题,咱们认为这一点很是重要。好比,人工智能是有根除疾患和贫困的潜力的,可是研究人员必须可以创造出可控的人工智能。那封只有四段文字,题目为《应优先研究强大而有益的人工智能》(“Research Priorities for Robust and Beneficial Artificial Intelligence”)的公开信,在其附带的十二页文件中对研究的优先次序做了详细的安排。


如何从人工智能中获益并规避风险


在过去的 20 年里,人工智能一直专一于围绕建设智能代理所产生的问题,也就是在特定环境下能够感知并行动的各类系统。在这种状况下,智能是一个与统计学和经济学相关的理性概念。通俗地讲,这是一种作出好的决定、计划和推论的能力。基于这些工做,大量的整合和交叉被应用在人工智能、机器学习、统计学、控制论、神经科学、以及其它领域。共享理论框架的创建,结合数据的供应和处理能力,在各类细分的领域取得了显著的成功,例如语音识别、图像分类、自动驾驶、机器翻译、步态运动和问答系统。


随着这些领域的发展,从实验室研究到有经济价值的技术造成良性循环。哪怕很小的性能改进,都会带来巨大的经济效益,进而鼓励更长期、更伟大的投入和研究。目前人们普遍认同,人工智能的研究正在稳步发展,而它对社会的影响极可能扩大,潜在的好处是巨大的,既然文明所产生的一切,都是人类智能的产物。因为这种智能是被人工智能工具放大过的,咱们没法预测咱们可能取得什么成果。可是,正如我说过的那样,根除疾病和贫穷并非彻底不可能,因为人工智能的巨大潜力,研究如何(从人工智能中)获益并规避风险是很是重要的。


如今,关于人工智能的研究正在迅速发展,这一研究能够从短时间和长期两个方面来讨论。


短时间的担心主要集中在无人驾驶方面,包括民用无人机、自动驾驶汽车等。好比说,在紧急状况下,一辆无人驾驶汽车不得不在小几率的大事故和大几率的小事故之间进行选择。另外一个担心则是致命性的智能自主武器。他们是否该被禁止?若是是,那么“自主”该如何精肯定义;若是不是,任何使用不当和故障的过失应该如何问责。此外还有一些隐忧,包括人工智能逐渐能够解读大量监控数据引发的隐私问题,以及如何掌控因人工智能取代工做岗位带来的经济影响。


长期担心主要是人工智能系统失控的潜在风险。随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统会威胁到人类。这样的结果是否有可能?若是有可能,那么这些状况是如何出现的?咱们又应该怎样去研究,以便更好地理解和解决危险的超级智能崛起的可能性?


当前控制人工智能技术的工具(例如强化学习)以及简单实用的功能,还不足以解决这个问题。所以,咱们须要进一步研究来找到和确认一个可靠的解决办法来掌控这一问题。


近来(人工智能领域的)里程碑,好比说以前提到的自动驾驶汽车,以及人工智能赢得围棋比赛,都是将来趋势的迹象。巨大的投入正在倾注到这一领域。咱们目前所取得的成就,和将来几十年后可能取得的成就相比,必然相形见绌。并且当咱们的头脑被人工智能放大之后,咱们更不能预测咱们能取得什么成就。也许在这种新技术革命的辅助下,咱们能够解决一些工业化对天然界形成的损害问题,关乎到咱们生活的各个方面也即将被改变。简而言之,人工智能的成功有多是人类文明史上最大的事件。


可是人工智能也有多是人类文明史的终结,除非咱们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,好比最大化使用智能性自主武器。今年早些时候,我和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令,咱们正在焦急的等待协商结果。目前,九个核大国能够控制大约一万四千个核武器,它们中的任何一个均可以将城市夷为平地,放射性废物会大面积污染农田,而最可怕的危害是诱发核冬天,火和烟雾会致使全球的小冰河期。这一结果将使全球粮食体系崩塌,末日般动荡,极可能致使大部分人死亡。咱们做为科学家,对核武器承担着特殊的责任,由于正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕。


现阶段,我对灾难的探讨可能惊吓到了在座的各位,很抱歉。可是做为今天的与会者,重要的是,大家要认清本身在影响当前技术的将来研发中的位置。我相信咱们会团结在一块儿,共同呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所能避免不可控的人工智能的崛起。


去年10月,我在英国剑桥创建了一个新的机构,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。“利弗休姆智能将来中心(The Leverhulme Centre for the Future of Intelligence)”是一个跨学科研究所,致力于研究智能的将来,这对咱们文明和物种的将来相当重要。咱们花费大量时间学习历史,深刻去看,大多数是关于愚蠢的历史,因此人们转而研究智能的将来是使人欣喜的变化。虽然咱们对潜在危险有所意识,但我心里仍秉持乐观态度,我相信创造智能的潜在收益是巨大的。也许借助这项新技术革命的工具,咱们将能够削减工业化对天然界形成的伤害。


确保机器人为人类服务


咱们生活的每个方面都会被改变。我在研究所的同事休·普林斯(Huw Price)认可,“利弗休姆中心”能创建,部分是由于大学成立了“存在风险中心(Centre for Existential Risk)”。后者更加普遍地审视了人类潜在问题,“利弗休姆中心”的重点研究范围则相对狭窄。


人工智能的最新进展,包括欧洲议会呼吁起草一系列法规,以管理机器人和人工智能的创新。使人感到些许惊讶的是,这里面涉及到了一种形式的电子人格,以确保最有能力和最早进的人工智能的权利和责任。欧洲议会发言人评论说,随着平常生活中愈来愈多的领域日益受到机器人的影响,咱们须要确保机器人不管如今仍是未来,都为人类而服务。一份向欧洲议会议员提交的报告明确认为,世界正处于新的工业机器人革命的前沿。报告分析了是否给机器人提供做为电子人的权利,这等同于法人(的身份)。报告强调,在任什么时候候,研究和设计人员都应确保每个机器人设计都包含有终止开关。在库布里克的电影《2001 太空漫游》中,出故障的超级电脑哈尔没有让科学家们进入太空舱,但那是科幻,咱们要面对的则是事实。奥斯本·克拉克(Space Odyssey)跨国律师事务所的合伙人——洛纳·布拉泽尔(Lorna Brazell)在报告中说,咱们不认可鲸鱼和大猩猩有人格,因此也没有必要急于接受一个机器人人格,可是担心一直存在。报告认可在几十年的时间内,人工智能可能会超越人类智力范围,进而挑战人机关系。报告最后呼吁成立欧洲机器人和人工智能机构,以提供技术、伦理和监管方面的专业知识。若是欧洲议会议员投票同意立法,该报告将提交给欧盟委员会,它将在三个月的时间内决定要采起哪些立法步骤。


咱们还应该扮演一个角色,确保下一代不只仅有机会还要有决心,可以在早期阶段充分参与科学研究,以便他们继续发挥潜力,并帮助人类创造一个更加美好的的世界。这就是我刚谈到学习和教育的重要性时所要表达的意思。咱们须要跳出“事情应该如何(how things should be)”这样的理论探讨,而且采起行动,以确保他们有机会参与进来。咱们站在一个美丽新世界的入口,这是一个使人兴奋的、同时充满了不肯定性的世界,而大家是先行者,我祝福大家。

----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------