托比·沃尔什
领先的人工智能研究员和教授托比·沃尔什与恋人聊天Krishnan人工智能的未来和道德。
主持人:百科全书的编辑yabo亚博网站首页手机。
成绩单
隐藏文字记录
[音乐]琳达拜里:欢迎来到思想家和实干家,我们探索领导和权威专家的想法和行为塑造我们的世界。您的主机,Karthik克里希。
恋人KRISHNAN:今天我们的客人是托比•沃尔什博士教授在悉尼新南威尔士大学。他是澳大利亚领先的人工智能专家之一,他的最新著作中,2062年,人工智能的世界,探索人工智能对工作的影响,战争,经济,政治,日常生活中,甚至死亡。欢迎,沃尔什博士。
托比·沃尔什:谢谢。很高兴来到这里。我是一个伟大的球迷的百科全书。作为一个年轻的男孩,我很幸运。我的父母买了一个物理副本,它成为我的。
我读它几乎从头至尾。和我还有美好的回忆那些偶然发现,你会翻过这一页,开始读下一个条目,并将一些完全不同的东西,你什么都不知道。所以我想象我应该不应该今天如果没有这些知识我设法涌入我的大脑,我年轻。
恋人KRISHNAN:谢谢你的分享。我认为人们谈论的事情之一是,认知思维发展当你收集大量的随机信息。当你有一个好觉,大脑连接所有这些事情真正认知思维的基础。我可以看到为什么翻阅一个按字母顺序索引百科全书或向下一个随机路径可以发射更多的脑细胞,也帮助我们做出这些随机连接。所以谢谢你的分享。回到大英百科全书,大英百科全yabo亚博网站首页手机书已经淬火人们对知识的渴求,引发好奇心自1768年以来,就像你刚刚共享。我们通过回答问题的终身学习者和令人兴奋的对未来的好奇心。
技术,如你所知,一直是一个关键驱动因素在塑造人类进步几个世纪以来,从15世纪印刷机的发明到今天的智能手机。今天的组合技术、数据和连接是把我们的世界。例如,坐在你旁边的智能手机可以让我们去做曾经被认为是科幻小说。今天我可以视频聊天一个所爱的人在世界的任何角落,披萨,当知道披萨会出现在我的门口。我也可以有一个谈话和我的冰箱的天气和我们的东西在冰箱里,不管是牛奶和鸡蛋。我们都觉得今天的詹姆斯·邦德。沃尔什博士,鉴于你AI的深刻理解,请你今天分享一些激动人心的AI在行动的例子吗?更重要的是,你看到向下派克?
托比·沃尔什:嗯,我喜欢你的乐观。和你是对的,有很多美好的事物,科技带给我们的生活。消除摩擦,使生活更美好。但值得指出的是,我们今天面临一些邪恶的问题,无论是气候紧急,是否正在进行的大流行,在我们的生活越来越不平等,政治分歧。如果我们要处理这些邪恶的问题我们必须拥抱科技,这样我们才能生活更好的质量。我的意思是,预期寿命继续提高的唯一原因是——值得记住的寿命几乎翻了一倍甚至在工业化国家,不仅在发展中国家,但即使是在过去100年的工业化国家。和儿童死亡率下降因为我们拥抱技术,我们需要再次做同样的事。
所以为例的下降管——我的意思是我们当前面临的挑战我们COVID大流行,几乎每一个方面,我们已经开始使用人工智能来帮助我们解决这些问题,无论是诊断——中国科学家很快开发出一些深刻的学习方法能够读x射线,能够发现独特的疤痕在人们的肺病毒的迹象。这样做更快,更便宜,更准确地比人类医生可以做。
再一次,机器学习技术已经用于识别最有效的方法——药物疗法等来处理那些可悲的是被感染。也要预测谁是最有可能住进加护病房,因此人们给最关注早期——试着阻止这种情况的发生——然后治愈。所以有人工智能的方法,试图帮助发明新的药物来应对流感大流行。所以我们可以认为发生在我们生活的方方面面。
很难想象真正的人工智能的东西是不会联系我们的生活,无论是生活或工作在我们的生活和介于两者之间的。
恋人KRISHNAN:有趣的是,你指出的事实,AI会联系我们生活的每一个走,从我们的生活方式,工作,玩。这是令人兴奋的。同时你也提醒我们,技术有两面,积极的一面,没那么伟大的一面。你建议我们平衡。
这就是我的下一个问题上。任何工作都是重复的可以标准化。任何涉及到可以自动快速计算。即使没有人工智能技术,技术今天能比人类做得更好时,股票交易,做沙拉,甚至鸡尾酒,和驾驶火车。这显然提高了工作和生活的问题。工人在历史上经常担心技术,并有充分的理由。技术的失业率是一个真正的东西。
从积极的一面来看技术也创造就业机会,几年前甚至不存在:社交媒体影响力,TikTok内容创造者,无人机操作员,Instacart交付副。在你的经历中,什么样的工人应该关心技术失业?有良好的集成方法人们和谐的方式和技术通过提高人类的能力而不是取代人类吗?
托比·沃尔什:这是这样一个伟大的,这样一个重要的问题。我认为这是我们面临的一个最重要的问题,在未来的几十年。正如你指出的那样,历史上一直出现的技术和取代工作和人们的工作变化。新工作被发明,某些工作被破坏。我们不知道这个平衡是什么时间。没有承诺,历史将会重演仅仅因为过去创造了更多的就业岗位,他们肯定。我们看它,世界人口处于历史高位。和忽略COVID的光点,全球失业率处于历史较低水平虽然我们已经发明了许多,许多新的就业机会的新人。但这不是一个承诺,它会继续下去。如果它不,好吧,这并不一定是坏事。
每周工作先后缩短,至少在发展中国家,在过去的100年,这是我们应该引以为傲的。这些都是非常重要的问题。当人们告诉我,他们的工作,今天已经被机器所取代,我通常说,我们应该庆祝。告诉我,工作是乏味的,重复的,我们可能不应该让人类在第一时间。当然引发了一个问题,这些人现在找到工作或在工作的一些新东西做什么?所以我认为真正重要的问题不在于有多少工作要被摧毁,但我们如何确保人比赛前对机器?
如果你做一些枯燥、重复的,那么你应该担心,因为对我来说这听起来像是,我们将很快让机器做。那么什么是人类独有的特点,那些机器今天不是很擅长,可能不是永远,曾经擅长吗?还有三个。我想描述这个备忘录,一个三角形。这是你不想夹在他们两个中间,将枯燥重复的工作。机器将会很快接管。你想成为一个三角形的角落,那里的工作是人类特有的。人类的爱和人类擅长或者机器永远不会好。
所以在三角形的顶端,像我这样的人,我很高兴把自己的技术上的三角形,这是有文化的人。是某人创造未来。有一个未来发明未来。现在,当然,并不是每个人都像我一样的极客,希望代码和重塑未来。这很好,因为有两个其他同样重要的是,我认为实际上可能是更重要的是,角落里的三角形。
所以左边的角落,那是人的情感和社会情报。机器已经非常有限的情感、社会智力。他们独特的弱势群体在理解人类的情感,因为他们没有任何的情绪。所以我们机器有一个独特的优势,目前还不清楚机器是否会。我的意思是,当然,他们不会在技术意义上,因为情绪有一个化学基础和计算机没有一个非常重要的化学成分。但目前还不清楚,机器会真正能够理解人类的智慧,人类情感、社会情报像我们一样。
这是即使他们确实有,我们愿意与别人交流。在一天结束的时候,我们是社会动物。和有丰富工作最重要的特征是你的情感和社会情报。事实上,告诉我几乎所有的工作,除了作为一个极客,可能是一个情感和社会情报是非常重要的。作为首席执行官,首席执行官的告诉我最重要的特点是他们的情感和社会智力。作为一个政治家,使用你的情感和社会智力,再次成为一个医生是你的——我的意思是有一定数量的专业技术。你不想杀你的病人,但它又是你的情感和社会情报。再次成为一个销售人员,你的情感和社会情报。现在有充足的工作,我们希望人们情感和社会智力。
这叶三角形的第三个和最后一个角落,同样,机器在哪里独特的弱势与今天,创造性和工匠。机器不是特别创意本身虽然是人工智能的一个分支叫做计算创造力——想看看人类创造力与机器放大。但同样,那些感动人的手会变得更有价值。事实上我们已经看到,在潮人的文化。我们看到越来越多的价值放在工件,艺术,无论是工匠面包或名牌服装,个性化的东西。
事实上我认为过去的100年里我们看到了大规模生产。这是我们能效率和规模。现在,我想在下个世纪将是个性化制造故事,事情对我们来说都是独特的。所以我们要值。如果我们相信经济学家,这些东西会越来越有价值。我认为我们再看一遍,在潮人的文化,与那些感动的人手将更少,更有价值。
恋人克里希:我爱的方式你陷害。首先,你提醒我们说,过往业绩不代表未来。和就业市场的供给和需求方面可以改变很快。但同时我爱你陷害它说我们可以使用技术重新设计工作,这样我们人类可以关注最有趣的工作的一部分,这实际上是创造性思维,把所有这些事情在一起。我认为这是一个伟大的方式来看待它。
托比·沃尔什:当我去跟公司的董事会,我经常提醒董事会。我对他们说,看你有一个机会。你需要找出你的AI计划。这个技术来改变我们的地球像手机一样10年前,20年前像互联网一样。你要工作你打算如何利用这项技术,你可以两种方式之一。
你可以说这是一种替代人。通常是一种取代人,人们远离那些枯燥、重复的任务,让机器做这些任务。但这是非常短视的观点这种技术给我们提供了什么,这是一个种族底部。如果你在美国或澳大利亚这样的国家,我的祖国,我们不可能赢得比赛。有很多便宜的国家,劳动力成本便宜得多,谁会赢得比赛。
或者你可以看到这是一种提升你的游戏。这是,你现在可以把这些人利用他们的时间去做你要做的更好,来改善你的产品的设计,为了更好的服务你的客户,为了更好地理解你的客户,来改善你与客户的关系。这是一个游戏,你可以赢得的比赛,我们让人们最好的优势。
恋人克里希:我认为这是一个伟大的框架方法。我的意思是,我们谈论的事情之一就是增强智能的整个概念。这不是我们创造的东西,但我的一个最近的文章为世界经济论坛谈论它。我们如何努力扩大人类的能力而不是取代或减少人类的能力?通过这样的一个综合的思维模式,你对你的工作不只是竞争机器,我怎么把托比和恋人一起机器吗?和他们如何工作和做事情比这是做过的吗?我认为开辟了新的新的机会。我真的希望新兴的世界会创造很多当我们这样做的好处。
托比·沃尔什:是的,我希望有一天AI不再是人工智能,成为增强智力。我们意识到这只是另一种工具。这是我们一直使用的工具——的原因,不管是好是坏,这个星球上优势种是因为我们工具的用户。我们一直使用的工具,不管是火灾或石头和轴做我们不能做的事情与我们人类的身体。我们现在有另外一个工具,放大不肌肉,但我们的大脑。如果我们看到它,并使用它,然后我们可以再次提升我们的游戏和使用地球更轻的方式和生活质量更好。
恋人KRISHNAN:所以是正确的。事实上,回到你的评论关于技术允许我们使事情更快、更便宜。工业革命期间,我们意识到,我们可以把我们的肌肉力量和转换成机器的力量。人工智能与你能够带来的额外的见解,甚至传感器,为我们提供更多的信息比它与人体的可能。所以真正创建一个世界的机会当你增加所有这些功能和使用这些工具真正推动人类。
(播放音乐)
这是我的问题。这是我没有预料的弧线球当我在读你的传记。沃尔什博士,战争一直是技术创新的催化剂。但有一个潜在的军事发展你尤其困扰称为机器人杀手,自动武器代理在没有人监督的能力。事实上,你已经在循环中发挥了关键作用联合国一份请愿书呼吁自主机器人武器禁令。使我感到惊奇的是,人们喜欢Elon Musk和苹果联合创始人史蒂夫•沃兹尼亚克,推动技术进步的记录,你已经签署了请愿书。考虑到战争可能会保持固定在我们的世界里,岂不更好把人类从战场上和离开危险的工作机器人吗?你为什么要提倡禁止呢?
托比·沃尔什:不只是我鼓吹的一个计划。但正如你提到的,有思想的人,像Elon Musk和史蒂夫•沃兹尼亚克共同创立了苹果公司,他们说。但实际上,我认为,同样重要的是,成千上万的同事——人工智能领域的其他专家直接合作,签署了这些请愿书,也和我一起。这是件事确实让我夜不能寐。它是技术已经在许多情况下在过去由军事需求。
这是真正的人工智能。事实上,最大的资助者,直到最近,人工智能的研究一直是美国国防部。还有很多好东西,您可以使用人工智能在军事环境中。我总是告诉人们,没有一个人应该清楚一个雷区。完美的机器人的工作。如果出错,机器人被炸毁,自己去买另一个机器人。,没有人会冒着生命或肢体再次清理一个雷区。同样有很多其他用途的人工智能,在军事环境中,能帮助拯救生命。
但同样我很担心我们会交出决定谁生谁死机器。和机器不能使这些道德的区别。他们不是有感情的,他们没有意识到,他们不能受到惩罚。他们不能为自己的行为负责,他们会让战争更可怕的事情。现在,当然,有很多反对这一想法。我想你们指出最常见的一种,嗯,我们可以让机器人战斗机器人。
不幸的是,我讨厌这样说,有点天真的对战争的看法。当然今天的战争并没有参加过一些不同的世界的一部分称为战场。第一次世界大战以来,还没有发生。战争,可悲的是现在,是在和在城镇和城市,实际上经常攻击平民。各样的人,不幸的是,我们最终与不对称的冲突斗争——现在和将来,他们不是那种人报名,说,嗯,这将是我的机器人对抗你的机器人。
如果它是那么简单,实际上,我们甚至不需要结束战斗。我们可以说,好吧,我们决定用一个国际象棋的游戏或游戏tiddlywinks。不幸的是这不是战争,所以它会让战争更可怕的事情。其实我只是想快速讨论其他常见的反对,人们把这个想法,我们应该杀死交给机器人。
只是因为他们说明,首先,实际上,如果你研究这些参数,他们实际上并不容纳太多的水。但也不是完全黑或白的问题。有争论,支持和反对的想法,我们应该机器人杀手。但实际上如果你学习的事你来很短的时间内,我认为,相同的结论,我和成千上万的同事,这是我们应该强烈决定不这样做。和有很多的技术,我们做出这些决定。
我们历史上决定的技术——无论是生物武器和化学武器,甚至今天,核武器,我们不应该用于战争。战争已经足够可怕的事情没有使它更血腥,血腥和混乱,这些新技术。我们有理智和判断力,世界,决定有些事情不应该用于战斗的战争。
的另一个常见的反对意见是,机器人将会更有效率。今天这不是真的。如果我们看看我们今天的技术,我很担心会有大量的附带损害。五角大楼的无人机是泄露的文件,显示不自主,的半自治的无人机飞行的阿富汗和伊拉克,十有八九他们杀死的那些人并不是目标。当我们还有人类的循环。如果我们由机器取代人类,今天在技术上我们可以做,这是我的目标只会让十有八九的错误。我担心我们会犯更多的错误。
我可以承认,将有一个未来,在几十年的时间,当他们将更有效率。他们将会看到世界比人类将看到它们。他们将会有更快的反应。这将是一个令人不安的事情,战争会如此快速,血腥的事情,人类将无法参加。将人类——只会当场死亡。一旦战斗开始所有的人类将会死亡,就留给了机器。所以我不认为有更高效的武器必然是一件好事。我们发现当我们发明了机枪,当我们发明了坦克,然后当我们发明了原子弹,我们可以杀人的速度不一定是一件好事。
第三个参数设置,我认为这也许是最有趣的论点,他们将更有道德。实际上,这是一个人会说,我们实际上有一个道德必要性开发机器人杀手。因为战争是可怕的,可怕的暴行发生在激烈的战斗中,人类犯下战争罪。这不会发生当我们有电脑。电脑会精确的规则。
这个论点有两个根本的缺陷。现在,首先,我们甚至不知道怎么做。我们不知道如何编程国际人道主义法律。今天,我们不知道如何编程。当然的武器装备在未来十年左右的时间不一定遵循国际人道主义法的细微差别——比例的原则,这些原则的区别。这些都是法律学者认为在深夜。这不是我们可以很容易地计划。现在,再一次,我可以承认这一事实可能在将来的某个时候,我们将能够找出这些微妙的规定程序到计算机。
但这个论点的第二个致命缺陷是,每一个我们所建立的计算机系统可以砍。有坏的人将这些系统并删除任何道德保障。然后我们会有这些可怕的武器,更有效,比人类更有效,不遵守国际人道主义法。他们不负责的行为,不能处罚——完美的武器恐怖分子和流氓国家对平民使用。
但是第四——我要经过5个参数。第四个参数是,这些武器已经存在,因此,你不能禁止他们。这个论点的两个基本问题是一切——除了一个技术,已经被禁止已经存在时禁止。唯一的例外是致盲的激光,禁止先发制人。但所有其他技术——无论是集束弹药,或生物武器、化学武器——他们被禁止之前就已经存在。
实际上,我担心的是,我敢肯定,我们将禁止这些,然后我们将决定这是一个可怕的,可怕的战争作战方式。我们有丰富的战斗,意味着实际的威慑手段的人想发动攻击我们。但在其他情况下,我们必须看到这些武器被误用,无论是化学武器的恐怖在第一次世界大战期间,或核武器的恐怖在第二次世界大战,在我们有理智国际监管。这就是让我清醒的东西,我们必须看到这些武器使用和误用之前我们有远见,或者对于这种情况可能是事后监管。
最后认为我想讨论很快,是人们会说,好吧,这都是非常漂亮的和高尚的原则,托比,但我们的武器禁令不工作。再一次,我认为历史说反对这一观点。有丰富的武器禁令已经实施。他们没有100%有效的工作。我的意思是,化学武器禁令是一个很好的例子。
所以化学武器可悲的是,习惯在叙利亚和其它地方不时。但是我们在很大程度上限制了使用化学武器,因为化学武器禁令的存在,因为我们决定是道德败坏。当这些武器会滥用,世界集体团结一起,谴责他们。还有在《纽约时报》的头版头条,有联合国的决议在地板上。和什么在很大程度上的确有限,极大地限制了使用化学武器,是因为存在的禁令,全世界没有军火公司至少会公开卖给你一种化学武器。这限制了他们的那时。甚至暴君三思他们实际上释放,知道有一些遥远的法院在海牙的联合国和也许等待他们,如果他们做的。
恋人KRISHNAN:现在谢谢你分享。我认为首先,视觉,我想真正的钢铁,你看这部电影,两个机器人在哪里战斗。你明确的,事实并非如此。你知道,第一次世界大战以来,战争的性质已经改变,今天我们似乎更担心网络攻击,对吧?这是最快的方式将社区,经济,和其他东西。我可以看到你为什么关心编程武器被攻击或被劫持,能够造成巨大的伤害,这可能会导致的情况下没有人变得负责任,因为你不能起诉他们。这肯定会导致一个艰难的局面。
托比·沃尔什:你不能起诉他们。而且你经常甚至不知道他们是谁。所以他们极度——他们会很不稳定,因为武器。因为当一些计算机代码出来——无论是在网络上还是物理空间很难找出是谁。事实上我们已经看到这一点。我们已经看到了一个俄罗斯基地在叙利亚被无人机袭击,我们不确定是谁策划了这次行动。我们经常看到这种网络攻击。不幸的是,如果第三次世界大战开始,我敢肯定它将开始在网络空间。
你知道世界大战已经开始互联网停止工作,具有讽刺意味的是,因为它是设计为一个故障安全网络世界大战。我敢肯定你会知道第三次世界大战开始,互联网被网络攻击撤下。所以你不会知道是谁来了你,所以你不会知道你是谁应该是防御。所以作为技术又非常不稳定,另一个原因是担心它。
恋人KRISHNAN:嗯,好的理由。实际上我真的希望我们作为人类利用技术以正确的方式,创建和塑造一个光明的未来,而不是创建这些类型的不确定的情况。在你的一个回答你提到的人工智能和机器人真的可以帮助某些目的。所以考虑到你已经花了很多时间思考这个话题,包括详细周密的论点,你能给我们一些见解时我们应该用什么标准来确定,当不使用机器人技术在战争吗?
托比·沃尔什:我认为当然在联合国讨论——积极的一面——值得指出的是,联合国已经捡起这个想法现在30个国家呼吁先发制人的禁令,欧洲议会投票,非洲联盟投票。因此世界开始讨论这个问题,虽然仍然是一个重要的阻力,遗憾的是,从美国,不幸的是,从我的祖国英国、来自俄罗斯,并在一定程度上来自中国,一些其他国家的人也许在这项技术发展的前沿。
但讨论有——我认为确实如此——流传在这个有意义的人类控制的想法。令人担忧的AI不是其智慧。我不担心我的自主车。事实上,聪明自主车越少担心我。但我担心我的自主车的自主权,事实上它有这个世界上自己行动的能力,和这些决定会有后果。
这就是为什么自主武器是如此令人担忧的,是我们自己给他们自由行动。他们会做出自己的决定。所以要担心的是,我们保持有意义的人工控制。我们一直用技术把自己一点点从战场上,各种流程自动化。不会停止,但是如果我们把人类从循环我们不仅改变时间表。我们失去了这个责任。我们失去了人类的判断。所以我们应该总是确保我们有人类参与的决定目标,跟踪,然后执行。
所以我们要继续在战斗中使用自动化。有丰富的用途。我的意思是,我们已经有了,例如,方阵反导弹系统。它坐落在美国海军驱逐舰。它坐落在英国军舰,保护他们的领空。这是一个自动系统挽救人们的生命。你有高超音速导弹铺面而来,它近在眼前,你有毫秒响应,只有一台电脑可以挽救人们的生命。但这不是让这些目标——它不是针对决策本身。这不是决定谁杀死在地上。
我们人类不应该删除,在一天结束的时候,唯一的道德人,谁可以负责决策。我的意思是这是一个重要的认为我们做的事情。我们已经同意战争,战争的规则。我们的人负责,尽管战争不是在任何允许了。这是一个很好的理由。和我们有规则的冲突和我们这些规则负责的人员。只有人可以被追究责任。
恋人KRISHNAN:爱有意义的人类控制的概念,如何确保人们做出正确的判断和问责制。我认为他们都齐头并进。这再一次,回到我们如何的整个概念设计工作吗?这不是关于消除工作。你重新设计,确保技术可以增强我们的能力吗?也许它可以帮助我们做出更好的决策。当您想要启动,你看到一个孩子在中间,你可以叫,中止操作之类的东西。所以爱你实际上倡导的东西,我们仍在使用技术,但是用一种有意义的方式。它仍然问责和良好的判断力的人。也许100年后技术可能的情况他们都能做出这样的判断,但我们没有。
托比·沃尔什:嗯,我不认为我们想要醒来的世界里我们把所有这些决定移交给机器。事实上,我们已经知道这个世界是什么样子。和作者奥尔德斯·赫胥黎和乔治•奥威尔(George Orwell)告诉我们,世界将是什么样子的。例如,人类——我们人类被机器作为法官。我们不想在那个世界。我更喜欢,即使他们不准确,在陪审团面前站起来12我的同行和面对他们的判断和问责制,比我在机器的世界中醒来——冷计算机器单独做出这些决定。
恋人克里希:我真的希望我们能离开奥尔德斯·赫胥黎和科幻小说。我们可以保持人类人类和人类的中心我们做出所有的决定和判断。另一个有趣的点我是关于你的最新著作《2062:人工智能的世界,你探索一个非常重要的问题,这是什么意思是人类在一个人工智能的时代吗?你甚至问我们是否能成为不朽的机器通过上传我们的大脑到云上。这真的可能吗?和你建议我们如何处理科学,可以从根本上改变人类意味着什么吗?
托比·沃尔什:这些都是美妙的问题。科学一直要求我们深刻、根本质疑它是什么是人类。自从我们开始提问,太阳绕着地球转,我们一直在挑战的事实,不,太阳不会——我们不是宇宙的中心。远非如此。我们只是遥远的宇宙。地球绕着太阳转。太阳绕其他星系。所以我们不是宇宙的中心。然后哥白尼告诉我们。
达尔文告诉我们,我们从猿没有什么不同。我们相同的基因血统的后裔的确猿和所有其他人类生命,据我们所知,地球上。没有什么特别之处。所以剩下的一件事,或者我们认为这是留给我们,是我们的情报。的东西——它是人类独有的特点,使我们更好或更糟的是,今天我们在哪儿。实际上相当隆重,我们把它放在我们的名字。我们智人,聪明的物种,因为我们在这个星球上最聪明的事。和我们使用的,有主导地位是我们地球上的地方。
人工智能,我认为,在某种意义上,我一直认为,为什么它吸引了我,,当我还是一个小男孩读《大英百科全书》。yabo亚博网站首页手机我记得读这篇文章确实在人工智能和百科全书,意识到这也许是最基本的我们至少可以问这个世纪,也就是,人类的智慧是什么特别之处?它在硅的东西我们可以重现吗?我们不知道答案,我的意思是这就像所有优秀的科学问题。我们完全不知道答案是什么。事实上早期迹象我认为我们要从成功或适度的成功今天我们在人工智能,是我们构建的智能硅比人类智慧截然不同。
我总是喜欢向人们指出,我们讨论人工智能,人们关注“我”情报,因为这似乎是对我们非常重要。但是他们忘记了”,“人工情报他们建造,至少在机器,是——今天是人工,比人类智慧截然不同。它有完全不同的特点。它确实有些事情,人类并不擅长。其他的事情。在其他一些事情上表现得非常失败人类非常擅长。它比人类智慧减免优惠以完全不同的方式。所以我们可能最终构建不同类型的智能与机器。
我们不应该惊讶,因为通常当我们建造东西,他们截然不同的自然的方式构建。和我喜欢给人的例子是飞行。有人工飞行,我们做的东西在飞机上,或者在大流行之前,我们在飞机上使用。还有自然,自然的东西与鸟类和蜜蜂。和他们完全不同。当我们做人工飞行我们不拍打翅膀。我们与工程解决方案的问题——这是完全不同与固定翼和一个非常大的,强大的引擎,最终也许更好的工程解决方案。科学下面是一样的,相同的n - s方程的动力学控制之下。但这是一个完全不同的工程解决方案。
所以我喜欢向人们指出,AI可能以相当不同的方式解决问题的情报和一些特点,和一些特征可能——可能更好,这已经是我们可以真正看到。我们可以真正看到机器可以比人类快得多。他们工作速度电子化学速度不像人类的大脑。他们工作在兆赫,每秒数百万的指令,而不是在数万赫兹人类的大脑似乎工作。他们不像人类的大脑是有限的内存中。人类的大脑是人类头骨的大小限制,和头骨不可能更大,因为它不能离开产道。所以我们不会得到任何更大的大脑,而我们可以在云中有更多和更多的内存。
我们有几乎无限的记忆。我们不需要忘记任何东西。所以有很多机器的特性,计算机可以有,这或许会给他们一个优势。但同样也有一些特点,给他们一个劣势。你已经提到的其中之一,这是机器没有生物化学。他们没有情感生活。他们会特别挑战懂得人类的情感。
因为我们当然还没有建立任何不是假的感情。他们不会像我们一样能够同情,因为他们不会经历这些事情。他们没有情感的人。
还有别的人类生存是非常重要的,我认为以使人的生活更加富裕,所以,所以有价值的,他们是不朽的,我们会死的。,增加了一个独特的peakness生活和生命的独特的味道。和生活的许多东西是特别,因为我们的死亡率。
和机器永远不会体验爱与失去,因为他们永远不会坠入爱河,他们永远不会失去自己或死亡。所以有些事情,我想,是人类独有的特征,机器永远不会取代。我们是否可以上传自己的云,这是一个有趣的问题。当然有一节我的书,我讨论是否我们可以和技术原因,也许我们可能会失败。当然这是需要考虑。这是一个娱乐的想法。没有明显的原因,如果我们不能复制每个神经元,为什么我们不会取代人类的大脑。
我的意思是,当然,可能会有宗教的观点你可以调用。在这种情况下,我怀疑我们走出这些东西的领域,那些只有科学才能回答的问题。我们到其他领域的知识,科学的方法,至少是不能解决。但是如果我们抛开这些,那些也许宗教的反对意见,我认为从科学的角度来看,很难不去接受这个主意。在一天结束的时候,我们是生物机器,并没有什么,没有什么,我们知道的特别之处,我们也许不能重现在硅。
但如果我们这样做我不确定机器将分享我们生活的一个非常重要的特征是我们的感觉,我们的意识。我们不知道,这也许是这个世纪最基本的科学问题之一,意识是什么?我们只是开始开始理解什么是意识。我们有非常有限的理解它是什么,它在哪,它又会采取什么样的形式,这是引人注目的,因为它是最核心的部分我们的存在。当你早上醒来你醒来,你打开你的眼睛,你醒了,你知道你醒了。这是你有意识的存在,这是最基本的经验,当你睡着了,你死的最终时刻。这是最基本的人类经验的一部分,然而,我们没有真正的科学理解它是什么。因此,很难理解如果我们能够重现,在其他一些像硅衬底。
我想也许我们不可能。在这种情况下,即使我们可以上传自己的云,它不会是我们。因为它不会是我们,在这个意义上的经验,我们的意识经验的活着和思考。
恋人KRISHNAN:哇,这是如此强大。我爱你的事实提醒我们,总是会处于前沿的科学革命。它让我想起了爱因斯坦的一个报价,说:“想象力比知识更重要。为我们知道和了解的知识是有限的,而想象力拥抱整个世界和所有我们将要知道和理解。”And I can see that with the fourth Industrial Revolution where the physical and the digital worlds are coming together. And probably even the biological worlds are coming together. The way we need to approach problems and opportunities in life has to change. And maybe for the first time technology allows us to not only do things faster, better, and cheaper, but maybe it helps us redefine things.
例如,你和我不会有一次谈话,或者世界上大多数会在日冕中挣扎,如果不是因为技术,包括放大满足和微软团队和所有可用的软件。20年前我们经历了这样的经历也许大多数的世界经济将遭受更多。我关闭这个对话我只是想谢谢你,沃尔什博士,对于一些惊人的,刺激的见解。我们显然有很多思考和做我们找出最好的办法是利用技术来塑造我们共同的未来。非常感谢让我们的思想和我们的头脑赛车流动。
托比·沃尔什:这是我的荣幸和你说话,我喜欢谈话结束的地方,那就是我们的技术为未来不是关于技术。这都是我们人类以及它如何让我们拥抱我们的人性。就像你和我已经能够连接在醚今天,和技术如何放大人性。
恋人KRISHNAN:说得好。如何我们还是人类中心的所有解决方案和机会,并确保我们可以塑造一个光明的未来,不只是对某些人。我认为这将是伟大的结果从所有这些对话。
托比·沃尔什:同意。
(播放音乐)
琳达拜里:你一直听恋人Krishnan主持的思想家和实干家。我们的生产商是西奥多·帕帕斯。我们的音频工程师Kurt Heintz。我们的主题曲是由丹尼尔·鲁丁。我是琳达拜里。
(播放音乐)
这个程序版权归百科全书公司。保留所有权利。yabo亚博网站首页手机
恋人KRISHNAN:今天我们的客人是托比•沃尔什博士教授在悉尼新南威尔士大学。他是澳大利亚领先的人工智能专家之一,他的最新著作中,2062年,人工智能的世界,探索人工智能对工作的影响,战争,经济,政治,日常生活中,甚至死亡。欢迎,沃尔什博士。
托比·沃尔什:谢谢。很高兴来到这里。我是一个伟大的球迷的百科全书。作为一个年轻的男孩,我很幸运。我的父母买了一个物理副本,它成为我的。
我读它几乎从头至尾。和我还有美好的回忆那些偶然发现,你会翻过这一页,开始读下一个条目,并将一些完全不同的东西,你什么都不知道。所以我想象我应该不应该今天如果没有这些知识我设法涌入我的大脑,我年轻。
恋人KRISHNAN:谢谢你的分享。我认为人们谈论的事情之一是,认知思维发展当你收集大量的随机信息。当你有一个好觉,大脑连接所有这些事情真正认知思维的基础。我可以看到为什么翻阅一个按字母顺序索引百科全书或向下一个随机路径可以发射更多的脑细胞,也帮助我们做出这些随机连接。所以谢谢你的分享。回到大英百科全书,大英百科全yabo亚博网站首页手机书已经淬火人们对知识的渴求,引发好奇心自1768年以来,就像你刚刚共享。我们通过回答问题的终身学习者和令人兴奋的对未来的好奇心。
技术,如你所知,一直是一个关键驱动因素在塑造人类进步几个世纪以来,从15世纪印刷机的发明到今天的智能手机。今天的组合技术、数据和连接是把我们的世界。例如,坐在你旁边的智能手机可以让我们去做曾经被认为是科幻小说。今天我可以视频聊天一个所爱的人在世界的任何角落,披萨,当知道披萨会出现在我的门口。我也可以有一个谈话和我的冰箱的天气和我们的东西在冰箱里,不管是牛奶和鸡蛋。我们都觉得今天的詹姆斯·邦德。沃尔什博士,鉴于你AI的深刻理解,请你今天分享一些激动人心的AI在行动的例子吗?更重要的是,你看到向下派克?
托比·沃尔什:嗯,我喜欢你的乐观。和你是对的,有很多美好的事物,科技带给我们的生活。消除摩擦,使生活更美好。但值得指出的是,我们今天面临一些邪恶的问题,无论是气候紧急,是否正在进行的大流行,在我们的生活越来越不平等,政治分歧。如果我们要处理这些邪恶的问题我们必须拥抱科技,这样我们才能生活更好的质量。我的意思是,预期寿命继续提高的唯一原因是——值得记住的寿命几乎翻了一倍甚至在工业化国家,不仅在发展中国家,但即使是在过去100年的工业化国家。和儿童死亡率下降因为我们拥抱技术,我们需要再次做同样的事。
所以为例的下降管——我的意思是我们当前面临的挑战我们COVID大流行,几乎每一个方面,我们已经开始使用人工智能来帮助我们解决这些问题,无论是诊断——中国科学家很快开发出一些深刻的学习方法能够读x射线,能够发现独特的疤痕在人们的肺病毒的迹象。这样做更快,更便宜,更准确地比人类医生可以做。
再一次,机器学习技术已经用于识别最有效的方法——药物疗法等来处理那些可悲的是被感染。也要预测谁是最有可能住进加护病房,因此人们给最关注早期——试着阻止这种情况的发生——然后治愈。所以有人工智能的方法,试图帮助发明新的药物来应对流感大流行。所以我们可以认为发生在我们生活的方方面面。
很难想象真正的人工智能的东西是不会联系我们的生活,无论是生活或工作在我们的生活和介于两者之间的。
恋人KRISHNAN:有趣的是,你指出的事实,AI会联系我们生活的每一个走,从我们的生活方式,工作,玩。这是令人兴奋的。同时你也提醒我们,技术有两面,积极的一面,没那么伟大的一面。你建议我们平衡。
这就是我的下一个问题上。任何工作都是重复的可以标准化。任何涉及到可以自动快速计算。即使没有人工智能技术,技术今天能比人类做得更好时,股票交易,做沙拉,甚至鸡尾酒,和驾驶火车。这显然提高了工作和生活的问题。工人在历史上经常担心技术,并有充分的理由。技术的失业率是一个真正的东西。
从积极的一面来看技术也创造就业机会,几年前甚至不存在:社交媒体影响力,TikTok内容创造者,无人机操作员,Instacart交付副。在你的经历中,什么样的工人应该关心技术失业?有良好的集成方法人们和谐的方式和技术通过提高人类的能力而不是取代人类吗?
托比·沃尔什:这是这样一个伟大的,这样一个重要的问题。我认为这是我们面临的一个最重要的问题,在未来的几十年。正如你指出的那样,历史上一直出现的技术和取代工作和人们的工作变化。新工作被发明,某些工作被破坏。我们不知道这个平衡是什么时间。没有承诺,历史将会重演仅仅因为过去创造了更多的就业岗位,他们肯定。我们看它,世界人口处于历史高位。和忽略COVID的光点,全球失业率处于历史较低水平虽然我们已经发明了许多,许多新的就业机会的新人。但这不是一个承诺,它会继续下去。如果它不,好吧,这并不一定是坏事。
每周工作先后缩短,至少在发展中国家,在过去的100年,这是我们应该引以为傲的。这些都是非常重要的问题。当人们告诉我,他们的工作,今天已经被机器所取代,我通常说,我们应该庆祝。告诉我,工作是乏味的,重复的,我们可能不应该让人类在第一时间。当然引发了一个问题,这些人现在找到工作或在工作的一些新东西做什么?所以我认为真正重要的问题不在于有多少工作要被摧毁,但我们如何确保人比赛前对机器?
如果你做一些枯燥、重复的,那么你应该担心,因为对我来说这听起来像是,我们将很快让机器做。那么什么是人类独有的特点,那些机器今天不是很擅长,可能不是永远,曾经擅长吗?还有三个。我想描述这个备忘录,一个三角形。这是你不想夹在他们两个中间,将枯燥重复的工作。机器将会很快接管。你想成为一个三角形的角落,那里的工作是人类特有的。人类的爱和人类擅长或者机器永远不会好。
所以在三角形的顶端,像我这样的人,我很高兴把自己的技术上的三角形,这是有文化的人。是某人创造未来。有一个未来发明未来。现在,当然,并不是每个人都像我一样的极客,希望代码和重塑未来。这很好,因为有两个其他同样重要的是,我认为实际上可能是更重要的是,角落里的三角形。
所以左边的角落,那是人的情感和社会情报。机器已经非常有限的情感、社会智力。他们独特的弱势群体在理解人类的情感,因为他们没有任何的情绪。所以我们机器有一个独特的优势,目前还不清楚机器是否会。我的意思是,当然,他们不会在技术意义上,因为情绪有一个化学基础和计算机没有一个非常重要的化学成分。但目前还不清楚,机器会真正能够理解人类的智慧,人类情感、社会情报像我们一样。
这是即使他们确实有,我们愿意与别人交流。在一天结束的时候,我们是社会动物。和有丰富工作最重要的特征是你的情感和社会情报。事实上,告诉我几乎所有的工作,除了作为一个极客,可能是一个情感和社会情报是非常重要的。作为首席执行官,首席执行官的告诉我最重要的特点是他们的情感和社会智力。作为一个政治家,使用你的情感和社会智力,再次成为一个医生是你的——我的意思是有一定数量的专业技术。你不想杀你的病人,但它又是你的情感和社会情报。再次成为一个销售人员,你的情感和社会情报。现在有充足的工作,我们希望人们情感和社会智力。
这叶三角形的第三个和最后一个角落,同样,机器在哪里独特的弱势与今天,创造性和工匠。机器不是特别创意本身虽然是人工智能的一个分支叫做计算创造力——想看看人类创造力与机器放大。但同样,那些感动人的手会变得更有价值。事实上我们已经看到,在潮人的文化。我们看到越来越多的价值放在工件,艺术,无论是工匠面包或名牌服装,个性化的东西。
事实上我认为过去的100年里我们看到了大规模生产。这是我们能效率和规模。现在,我想在下个世纪将是个性化制造故事,事情对我们来说都是独特的。所以我们要值。如果我们相信经济学家,这些东西会越来越有价值。我认为我们再看一遍,在潮人的文化,与那些感动的人手将更少,更有价值。
恋人克里希:我爱的方式你陷害。首先,你提醒我们说,过往业绩不代表未来。和就业市场的供给和需求方面可以改变很快。但同时我爱你陷害它说我们可以使用技术重新设计工作,这样我们人类可以关注最有趣的工作的一部分,这实际上是创造性思维,把所有这些事情在一起。我认为这是一个伟大的方式来看待它。
托比·沃尔什:当我去跟公司的董事会,我经常提醒董事会。我对他们说,看你有一个机会。你需要找出你的AI计划。这个技术来改变我们的地球像手机一样10年前,20年前像互联网一样。你要工作你打算如何利用这项技术,你可以两种方式之一。
你可以说这是一种替代人。通常是一种取代人,人们远离那些枯燥、重复的任务,让机器做这些任务。但这是非常短视的观点这种技术给我们提供了什么,这是一个种族底部。如果你在美国或澳大利亚这样的国家,我的祖国,我们不可能赢得比赛。有很多便宜的国家,劳动力成本便宜得多,谁会赢得比赛。
或者你可以看到这是一种提升你的游戏。这是,你现在可以把这些人利用他们的时间去做你要做的更好,来改善你的产品的设计,为了更好的服务你的客户,为了更好地理解你的客户,来改善你与客户的关系。这是一个游戏,你可以赢得的比赛,我们让人们最好的优势。
恋人克里希:我认为这是一个伟大的框架方法。我的意思是,我们谈论的事情之一就是增强智能的整个概念。这不是我们创造的东西,但我的一个最近的文章为世界经济论坛谈论它。我们如何努力扩大人类的能力而不是取代或减少人类的能力?通过这样的一个综合的思维模式,你对你的工作不只是竞争机器,我怎么把托比和恋人一起机器吗?和他们如何工作和做事情比这是做过的吗?我认为开辟了新的新的机会。我真的希望新兴的世界会创造很多当我们这样做的好处。
托比·沃尔什:是的,我希望有一天AI不再是人工智能,成为增强智力。我们意识到这只是另一种工具。这是我们一直使用的工具——的原因,不管是好是坏,这个星球上优势种是因为我们工具的用户。我们一直使用的工具,不管是火灾或石头和轴做我们不能做的事情与我们人类的身体。我们现在有另外一个工具,放大不肌肉,但我们的大脑。如果我们看到它,并使用它,然后我们可以再次提升我们的游戏和使用地球更轻的方式和生活质量更好。
恋人KRISHNAN:所以是正确的。事实上,回到你的评论关于技术允许我们使事情更快、更便宜。工业革命期间,我们意识到,我们可以把我们的肌肉力量和转换成机器的力量。人工智能与你能够带来的额外的见解,甚至传感器,为我们提供更多的信息比它与人体的可能。所以真正创建一个世界的机会当你增加所有这些功能和使用这些工具真正推动人类。
(播放音乐)
这是我的问题。这是我没有预料的弧线球当我在读你的传记。沃尔什博士,战争一直是技术创新的催化剂。但有一个潜在的军事发展你尤其困扰称为机器人杀手,自动武器代理在没有人监督的能力。事实上,你已经在循环中发挥了关键作用联合国一份请愿书呼吁自主机器人武器禁令。使我感到惊奇的是,人们喜欢Elon Musk和苹果联合创始人史蒂夫•沃兹尼亚克,推动技术进步的记录,你已经签署了请愿书。考虑到战争可能会保持固定在我们的世界里,岂不更好把人类从战场上和离开危险的工作机器人吗?你为什么要提倡禁止呢?
托比·沃尔什:不只是我鼓吹的一个计划。但正如你提到的,有思想的人,像Elon Musk和史蒂夫•沃兹尼亚克共同创立了苹果公司,他们说。但实际上,我认为,同样重要的是,成千上万的同事——人工智能领域的其他专家直接合作,签署了这些请愿书,也和我一起。这是件事确实让我夜不能寐。它是技术已经在许多情况下在过去由军事需求。
这是真正的人工智能。事实上,最大的资助者,直到最近,人工智能的研究一直是美国国防部。还有很多好东西,您可以使用人工智能在军事环境中。我总是告诉人们,没有一个人应该清楚一个雷区。完美的机器人的工作。如果出错,机器人被炸毁,自己去买另一个机器人。,没有人会冒着生命或肢体再次清理一个雷区。同样有很多其他用途的人工智能,在军事环境中,能帮助拯救生命。
但同样我很担心我们会交出决定谁生谁死机器。和机器不能使这些道德的区别。他们不是有感情的,他们没有意识到,他们不能受到惩罚。他们不能为自己的行为负责,他们会让战争更可怕的事情。现在,当然,有很多反对这一想法。我想你们指出最常见的一种,嗯,我们可以让机器人战斗机器人。
不幸的是,我讨厌这样说,有点天真的对战争的看法。当然今天的战争并没有参加过一些不同的世界的一部分称为战场。第一次世界大战以来,还没有发生。战争,可悲的是现在,是在和在城镇和城市,实际上经常攻击平民。各样的人,不幸的是,我们最终与不对称的冲突斗争——现在和将来,他们不是那种人报名,说,嗯,这将是我的机器人对抗你的机器人。
如果它是那么简单,实际上,我们甚至不需要结束战斗。我们可以说,好吧,我们决定用一个国际象棋的游戏或游戏tiddlywinks。不幸的是这不是战争,所以它会让战争更可怕的事情。其实我只是想快速讨论其他常见的反对,人们把这个想法,我们应该杀死交给机器人。
只是因为他们说明,首先,实际上,如果你研究这些参数,他们实际上并不容纳太多的水。但也不是完全黑或白的问题。有争论,支持和反对的想法,我们应该机器人杀手。但实际上如果你学习的事你来很短的时间内,我认为,相同的结论,我和成千上万的同事,这是我们应该强烈决定不这样做。和有很多的技术,我们做出这些决定。
我们历史上决定的技术——无论是生物武器和化学武器,甚至今天,核武器,我们不应该用于战争。战争已经足够可怕的事情没有使它更血腥,血腥和混乱,这些新技术。我们有理智和判断力,世界,决定有些事情不应该用于战斗的战争。
的另一个常见的反对意见是,机器人将会更有效率。今天这不是真的。如果我们看看我们今天的技术,我很担心会有大量的附带损害。五角大楼的无人机是泄露的文件,显示不自主,的半自治的无人机飞行的阿富汗和伊拉克,十有八九他们杀死的那些人并不是目标。当我们还有人类的循环。如果我们由机器取代人类,今天在技术上我们可以做,这是我的目标只会让十有八九的错误。我担心我们会犯更多的错误。
我可以承认,将有一个未来,在几十年的时间,当他们将更有效率。他们将会看到世界比人类将看到它们。他们将会有更快的反应。这将是一个令人不安的事情,战争会如此快速,血腥的事情,人类将无法参加。将人类——只会当场死亡。一旦战斗开始所有的人类将会死亡,就留给了机器。所以我不认为有更高效的武器必然是一件好事。我们发现当我们发明了机枪,当我们发明了坦克,然后当我们发明了原子弹,我们可以杀人的速度不一定是一件好事。
第三个参数设置,我认为这也许是最有趣的论点,他们将更有道德。实际上,这是一个人会说,我们实际上有一个道德必要性开发机器人杀手。因为战争是可怕的,可怕的暴行发生在激烈的战斗中,人类犯下战争罪。这不会发生当我们有电脑。电脑会精确的规则。
这个论点有两个根本的缺陷。现在,首先,我们甚至不知道怎么做。我们不知道如何编程国际人道主义法律。今天,我们不知道如何编程。当然的武器装备在未来十年左右的时间不一定遵循国际人道主义法的细微差别——比例的原则,这些原则的区别。这些都是法律学者认为在深夜。这不是我们可以很容易地计划。现在,再一次,我可以承认这一事实可能在将来的某个时候,我们将能够找出这些微妙的规定程序到计算机。
但这个论点的第二个致命缺陷是,每一个我们所建立的计算机系统可以砍。有坏的人将这些系统并删除任何道德保障。然后我们会有这些可怕的武器,更有效,比人类更有效,不遵守国际人道主义法。他们不负责的行为,不能处罚——完美的武器恐怖分子和流氓国家对平民使用。
但是第四——我要经过5个参数。第四个参数是,这些武器已经存在,因此,你不能禁止他们。这个论点的两个基本问题是一切——除了一个技术,已经被禁止已经存在时禁止。唯一的例外是致盲的激光,禁止先发制人。但所有其他技术——无论是集束弹药,或生物武器、化学武器——他们被禁止之前就已经存在。
实际上,我担心的是,我敢肯定,我们将禁止这些,然后我们将决定这是一个可怕的,可怕的战争作战方式。我们有丰富的战斗,意味着实际的威慑手段的人想发动攻击我们。但在其他情况下,我们必须看到这些武器被误用,无论是化学武器的恐怖在第一次世界大战期间,或核武器的恐怖在第二次世界大战,在我们有理智国际监管。这就是让我清醒的东西,我们必须看到这些武器使用和误用之前我们有远见,或者对于这种情况可能是事后监管。
最后认为我想讨论很快,是人们会说,好吧,这都是非常漂亮的和高尚的原则,托比,但我们的武器禁令不工作。再一次,我认为历史说反对这一观点。有丰富的武器禁令已经实施。他们没有100%有效的工作。我的意思是,化学武器禁令是一个很好的例子。
所以化学武器可悲的是,习惯在叙利亚和其它地方不时。但是我们在很大程度上限制了使用化学武器,因为化学武器禁令的存在,因为我们决定是道德败坏。当这些武器会滥用,世界集体团结一起,谴责他们。还有在《纽约时报》的头版头条,有联合国的决议在地板上。和什么在很大程度上的确有限,极大地限制了使用化学武器,是因为存在的禁令,全世界没有军火公司至少会公开卖给你一种化学武器。这限制了他们的那时。甚至暴君三思他们实际上释放,知道有一些遥远的法院在海牙的联合国和也许等待他们,如果他们做的。
恋人KRISHNAN:现在谢谢你分享。我认为首先,视觉,我想真正的钢铁,你看这部电影,两个机器人在哪里战斗。你明确的,事实并非如此。你知道,第一次世界大战以来,战争的性质已经改变,今天我们似乎更担心网络攻击,对吧?这是最快的方式将社区,经济,和其他东西。我可以看到你为什么关心编程武器被攻击或被劫持,能够造成巨大的伤害,这可能会导致的情况下没有人变得负责任,因为你不能起诉他们。这肯定会导致一个艰难的局面。
托比·沃尔什:你不能起诉他们。而且你经常甚至不知道他们是谁。所以他们极度——他们会很不稳定,因为武器。因为当一些计算机代码出来——无论是在网络上还是物理空间很难找出是谁。事实上我们已经看到这一点。我们已经看到了一个俄罗斯基地在叙利亚被无人机袭击,我们不确定是谁策划了这次行动。我们经常看到这种网络攻击。不幸的是,如果第三次世界大战开始,我敢肯定它将开始在网络空间。
你知道世界大战已经开始互联网停止工作,具有讽刺意味的是,因为它是设计为一个故障安全网络世界大战。我敢肯定你会知道第三次世界大战开始,互联网被网络攻击撤下。所以你不会知道是谁来了你,所以你不会知道你是谁应该是防御。所以作为技术又非常不稳定,另一个原因是担心它。
恋人KRISHNAN:嗯,好的理由。实际上我真的希望我们作为人类利用技术以正确的方式,创建和塑造一个光明的未来,而不是创建这些类型的不确定的情况。在你的一个回答你提到的人工智能和机器人真的可以帮助某些目的。所以考虑到你已经花了很多时间思考这个话题,包括详细周密的论点,你能给我们一些见解时我们应该用什么标准来确定,当不使用机器人技术在战争吗?
托比·沃尔什:我认为当然在联合国讨论——积极的一面——值得指出的是,联合国已经捡起这个想法现在30个国家呼吁先发制人的禁令,欧洲议会投票,非洲联盟投票。因此世界开始讨论这个问题,虽然仍然是一个重要的阻力,遗憾的是,从美国,不幸的是,从我的祖国英国、来自俄罗斯,并在一定程度上来自中国,一些其他国家的人也许在这项技术发展的前沿。
但讨论有——我认为确实如此——流传在这个有意义的人类控制的想法。令人担忧的AI不是其智慧。我不担心我的自主车。事实上,聪明自主车越少担心我。但我担心我的自主车的自主权,事实上它有这个世界上自己行动的能力,和这些决定会有后果。
这就是为什么自主武器是如此令人担忧的,是我们自己给他们自由行动。他们会做出自己的决定。所以要担心的是,我们保持有意义的人工控制。我们一直用技术把自己一点点从战场上,各种流程自动化。不会停止,但是如果我们把人类从循环我们不仅改变时间表。我们失去了这个责任。我们失去了人类的判断。所以我们应该总是确保我们有人类参与的决定目标,跟踪,然后执行。
所以我们要继续在战斗中使用自动化。有丰富的用途。我的意思是,我们已经有了,例如,方阵反导弹系统。它坐落在美国海军驱逐舰。它坐落在英国军舰,保护他们的领空。这是一个自动系统挽救人们的生命。你有高超音速导弹铺面而来,它近在眼前,你有毫秒响应,只有一台电脑可以挽救人们的生命。但这不是让这些目标——它不是针对决策本身。这不是决定谁杀死在地上。
我们人类不应该删除,在一天结束的时候,唯一的道德人,谁可以负责决策。我的意思是这是一个重要的认为我们做的事情。我们已经同意战争,战争的规则。我们的人负责,尽管战争不是在任何允许了。这是一个很好的理由。和我们有规则的冲突和我们这些规则负责的人员。只有人可以被追究责任。
恋人KRISHNAN:爱有意义的人类控制的概念,如何确保人们做出正确的判断和问责制。我认为他们都齐头并进。这再一次,回到我们如何的整个概念设计工作吗?这不是关于消除工作。你重新设计,确保技术可以增强我们的能力吗?也许它可以帮助我们做出更好的决策。当您想要启动,你看到一个孩子在中间,你可以叫,中止操作之类的东西。所以爱你实际上倡导的东西,我们仍在使用技术,但是用一种有意义的方式。它仍然问责和良好的判断力的人。也许100年后技术可能的情况他们都能做出这样的判断,但我们没有。
托比·沃尔什:嗯,我不认为我们想要醒来的世界里我们把所有这些决定移交给机器。事实上,我们已经知道这个世界是什么样子。和作者奥尔德斯·赫胥黎和乔治•奥威尔(George Orwell)告诉我们,世界将是什么样子的。例如,人类——我们人类被机器作为法官。我们不想在那个世界。我更喜欢,即使他们不准确,在陪审团面前站起来12我的同行和面对他们的判断和问责制,比我在机器的世界中醒来——冷计算机器单独做出这些决定。
恋人克里希:我真的希望我们能离开奥尔德斯·赫胥黎和科幻小说。我们可以保持人类人类和人类的中心我们做出所有的决定和判断。另一个有趣的点我是关于你的最新著作《2062:人工智能的世界,你探索一个非常重要的问题,这是什么意思是人类在一个人工智能的时代吗?你甚至问我们是否能成为不朽的机器通过上传我们的大脑到云上。这真的可能吗?和你建议我们如何处理科学,可以从根本上改变人类意味着什么吗?
托比·沃尔什:这些都是美妙的问题。科学一直要求我们深刻、根本质疑它是什么是人类。自从我们开始提问,太阳绕着地球转,我们一直在挑战的事实,不,太阳不会——我们不是宇宙的中心。远非如此。我们只是遥远的宇宙。地球绕着太阳转。太阳绕其他星系。所以我们不是宇宙的中心。然后哥白尼告诉我们。
达尔文告诉我们,我们从猿没有什么不同。我们相同的基因血统的后裔的确猿和所有其他人类生命,据我们所知,地球上。没有什么特别之处。所以剩下的一件事,或者我们认为这是留给我们,是我们的情报。的东西——它是人类独有的特点,使我们更好或更糟的是,今天我们在哪儿。实际上相当隆重,我们把它放在我们的名字。我们智人,聪明的物种,因为我们在这个星球上最聪明的事。和我们使用的,有主导地位是我们地球上的地方。
人工智能,我认为,在某种意义上,我一直认为,为什么它吸引了我,,当我还是一个小男孩读《大英百科全书》。yabo亚博网站首页手机我记得读这篇文章确实在人工智能和百科全书,意识到这也许是最基本的我们至少可以问这个世纪,也就是,人类的智慧是什么特别之处?它在硅的东西我们可以重现吗?我们不知道答案,我的意思是这就像所有优秀的科学问题。我们完全不知道答案是什么。事实上早期迹象我认为我们要从成功或适度的成功今天我们在人工智能,是我们构建的智能硅比人类智慧截然不同。
我总是喜欢向人们指出,我们讨论人工智能,人们关注“我”情报,因为这似乎是对我们非常重要。但是他们忘记了”,“人工情报他们建造,至少在机器,是——今天是人工,比人类智慧截然不同。它有完全不同的特点。它确实有些事情,人类并不擅长。其他的事情。在其他一些事情上表现得非常失败人类非常擅长。它比人类智慧减免优惠以完全不同的方式。所以我们可能最终构建不同类型的智能与机器。
我们不应该惊讶,因为通常当我们建造东西,他们截然不同的自然的方式构建。和我喜欢给人的例子是飞行。有人工飞行,我们做的东西在飞机上,或者在大流行之前,我们在飞机上使用。还有自然,自然的东西与鸟类和蜜蜂。和他们完全不同。当我们做人工飞行我们不拍打翅膀。我们与工程解决方案的问题——这是完全不同与固定翼和一个非常大的,强大的引擎,最终也许更好的工程解决方案。科学下面是一样的,相同的n - s方程的动力学控制之下。但这是一个完全不同的工程解决方案。
所以我喜欢向人们指出,AI可能以相当不同的方式解决问题的情报和一些特点,和一些特征可能——可能更好,这已经是我们可以真正看到。我们可以真正看到机器可以比人类快得多。他们工作速度电子化学速度不像人类的大脑。他们工作在兆赫,每秒数百万的指令,而不是在数万赫兹人类的大脑似乎工作。他们不像人类的大脑是有限的内存中。人类的大脑是人类头骨的大小限制,和头骨不可能更大,因为它不能离开产道。所以我们不会得到任何更大的大脑,而我们可以在云中有更多和更多的内存。
我们有几乎无限的记忆。我们不需要忘记任何东西。所以有很多机器的特性,计算机可以有,这或许会给他们一个优势。但同样也有一些特点,给他们一个劣势。你已经提到的其中之一,这是机器没有生物化学。他们没有情感生活。他们会特别挑战懂得人类的情感。
因为我们当然还没有建立任何不是假的感情。他们不会像我们一样能够同情,因为他们不会经历这些事情。他们没有情感的人。
还有别的人类生存是非常重要的,我认为以使人的生活更加富裕,所以,所以有价值的,他们是不朽的,我们会死的。,增加了一个独特的peakness生活和生命的独特的味道。和生活的许多东西是特别,因为我们的死亡率。
和机器永远不会体验爱与失去,因为他们永远不会坠入爱河,他们永远不会失去自己或死亡。所以有些事情,我想,是人类独有的特征,机器永远不会取代。我们是否可以上传自己的云,这是一个有趣的问题。当然有一节我的书,我讨论是否我们可以和技术原因,也许我们可能会失败。当然这是需要考虑。这是一个娱乐的想法。没有明显的原因,如果我们不能复制每个神经元,为什么我们不会取代人类的大脑。
我的意思是,当然,可能会有宗教的观点你可以调用。在这种情况下,我怀疑我们走出这些东西的领域,那些只有科学才能回答的问题。我们到其他领域的知识,科学的方法,至少是不能解决。但是如果我们抛开这些,那些也许宗教的反对意见,我认为从科学的角度来看,很难不去接受这个主意。在一天结束的时候,我们是生物机器,并没有什么,没有什么,我们知道的特别之处,我们也许不能重现在硅。
但如果我们这样做我不确定机器将分享我们生活的一个非常重要的特征是我们的感觉,我们的意识。我们不知道,这也许是这个世纪最基本的科学问题之一,意识是什么?我们只是开始开始理解什么是意识。我们有非常有限的理解它是什么,它在哪,它又会采取什么样的形式,这是引人注目的,因为它是最核心的部分我们的存在。当你早上醒来你醒来,你打开你的眼睛,你醒了,你知道你醒了。这是你有意识的存在,这是最基本的经验,当你睡着了,你死的最终时刻。这是最基本的人类经验的一部分,然而,我们没有真正的科学理解它是什么。因此,很难理解如果我们能够重现,在其他一些像硅衬底。
我想也许我们不可能。在这种情况下,即使我们可以上传自己的云,它不会是我们。因为它不会是我们,在这个意义上的经验,我们的意识经验的活着和思考。
恋人KRISHNAN:哇,这是如此强大。我爱你的事实提醒我们,总是会处于前沿的科学革命。它让我想起了爱因斯坦的一个报价,说:“想象力比知识更重要。为我们知道和了解的知识是有限的,而想象力拥抱整个世界和所有我们将要知道和理解。”And I can see that with the fourth Industrial Revolution where the physical and the digital worlds are coming together. And probably even the biological worlds are coming together. The way we need to approach problems and opportunities in life has to change. And maybe for the first time technology allows us to not only do things faster, better, and cheaper, but maybe it helps us redefine things.
例如,你和我不会有一次谈话,或者世界上大多数会在日冕中挣扎,如果不是因为技术,包括放大满足和微软团队和所有可用的软件。20年前我们经历了这样的经历也许大多数的世界经济将遭受更多。我关闭这个对话我只是想谢谢你,沃尔什博士,对于一些惊人的,刺激的见解。我们显然有很多思考和做我们找出最好的办法是利用技术来塑造我们共同的未来。非常感谢让我们的思想和我们的头脑赛车流动。
托比·沃尔什:这是我的荣幸和你说话,我喜欢谈话结束的地方,那就是我们的技术为未来不是关于技术。这都是我们人类以及它如何让我们拥抱我们的人性。就像你和我已经能够连接在醚今天,和技术如何放大人性。
恋人KRISHNAN:说得好。如何我们还是人类中心的所有解决方案和机会,并确保我们可以塑造一个光明的未来,不只是对某些人。我认为这将是伟大的结果从所有这些对话。
托比·沃尔什:同意。
(播放音乐)
琳达拜里:你一直听恋人Krishnan主持的思想家和实干家。我们的生产商是西奥多·帕帕斯。我们的音频工程师Kurt Heintz。我们的主题曲是由丹尼尔·鲁丁。我是琳达拜里。
(播放音乐)
这个程序版权归百科全书公司。保留所有权利。yabo亚博网站首页手机