首页 > 企业新闻 > 

企业新闻

做到这一点,AI才可以让社会更“善”

阅读次数:次   发布时间:2020/1/15 11:06:21  所属栏目:企业新闻


   1月11日,由腾讯研究院主办的第三届“科技向善”年度论坛在北京举办。本届论坛以“千里之行·Action Now”为主

题,腾讯主要创始人之一、原首席技术官张志东等人聚焦科技向善的行动路径,分享了国内外先进案例和最新研究成

果。

   在此次论坛上,麻省理工学院物理学终身教授迈克斯·泰格马克(Max Tegmark)与我们分享了在AI飞速发展的背

景下,我们将如何与AI等新兴技术和平相处。以下为泰格马克演讲内容精选。

     

   迈克斯·泰格马克

   首先,我想引用美国现代“哲学家”辛普森(指动画片《辛普森一家人》中的角色)说的一句话:“啤酒,生活中一切

问题的解决方案。”(Ah beer. The cause of and the solution to all of life's problems.)

   如果我们把“啤酒”替换成人工智能(AI)的话,它仍然是成立的。我们受益于AI,但是AI也带来了很多困难和困

扰。与此同时,我们又需要更多的技术来解决问题。这也引出了我今天的主题:技术是否能够向善,能否帮助我们避免

生活中的问题呢?

   AI正变得越来越强大。在不久之前,我们是没有可以走路的机器人的,但现在,它们不仅可以行走,还可以做空

翻。过去我们没有自动驾驶汽车,但现在连火箭都可以通过AI自动降落回收。不久之前,AI不能做很好地识别人脸,但

现在AI在人脸识别领域有了很大的进展,中国也有企业做得很好。

   过去几十年间,我们的一些算法都被机器学习取代。由于技术的进步,AI可以替我们解决非常多的问题,甚至拯救

人类生命。大家都知道,每年有数百万人死于交通事故,这也是可以通过AI减少的。除了道路交通,AI还可以帮忙我们

减少医学等领域的人为错误。通过AI,我们还可以提升诊断和预后。现在有很多研究证明,在诊断前列腺癌、肺癌以及

眼疾时,AI做得比人类专家更出色。

   我相信AI可以帮助我们进一步提升医学研究。比如在蛋白质折叠的问题上,谷歌的AI就可以准确地预测氨基酸是如

何进行三维折叠的。虽然说预测的结果还有提升空间,但结果已经足够振奋人心了。

   这些都是AI在解决问题方面带来的获益,但是AI在解决问题之余,也会带来问题。

   AI会带来什么样的问题和挑战呢?大家可能都已经了解到,首先AI可以造成国家和人心的分裂。在很多地区,比如

肯尼亚的大选当中就带来了灾难性的后果;在委内瑞拉,无人机试图刺杀该国总统。AI还可能导致严重的经济损失。比

如,奈特资本集团因为1分钟的交易软件故障损失了4.4亿美元,这是交易失误带来的灾难性后果。此外,还有很多因为

人们不够了解AI而导致的后果。我们该如何去杜绝此类情况,怎样保持AI的积极层面而杜绝它的负面影响?

   首先,我们必须要划清界限。我们需要将AI的应用分为可接受和不能接受的。界线是什么?首先要有一些文化中的

定义,比如哪些能做,哪些不能做。一些是道德标准,还有一些是国际公约。这些都是用于保证AI的使用是可接受的。

大家可能会说这样并不现实,没有任何的技术可以进行这样的划分,但我认为我们有很多案例可以借鉴,比如生物学家

就已经有很多成功的案例。

   所以我们需要将AI调整到积极的、正面的方向,与此同时,AI的管理也是全球面临的挑战,因为技术是没有国界

的,所以各个国家不能自己关门作战。我觉得中国在这方面扮演了非常重要的角色,让AI朝着为我们所用的方向来发

展。这不仅是因为中国让我们的技术变得更加强大,也是因为中国有长期思维,战略部署的历史积淀和文化。所以在中

国演讲,当我说到未来十年、几十年的长期规划时没有人会笑,因为大家都知道长期规划的重要性。

   在进行分享的过程中,我不禁想到之前的一些案例。比如1975年,生物学家在阿西洛马会议上提出要警惕重组DNA

技术的潜在风险。2017年,AI科学家在阿西洛马延续了这一思想,他们提出了阿西洛马人工智能原则,很多国家签署了

这一原则。

   所以,我们必须划清界限:技术到底是向善的,还是向恶的,我们希望技术能够带来解药,而不是成为武器。

   划分这样的界线时,我们要进行积极响应,而非坐以待毙。过去我们人类一直是从错误中去学习,但是随着技术和科

学日益强大,这样就不再合适了。比如,我们不能在有了核武器之后,从核战争中学习,说下次我们小心点。在这样强

大的技术下,我们需要主动,在一开始就想对做对,因为这也可能是我们唯一的机会。

   我们需要让所有任务进行人机匹配,这就叫作通用人工智能(artificial general intelligence,简称

AGI)。表现超越人类的超级智能多快可以实现?答案是我们不知道。这是我们争论的话题,有着不同的观点,比如

DeepMind创始人戴密斯·哈萨比斯(Demis Hassabis)认为这很快就会发生。

   如果实现的话,机器比我们做得更好、比我们更便宜,那会发生什么呢?一些人可能会感到悲观,但我认为这是没有

必要的,我们仍然可以建立非常远大的目标。我觉得非常重要的是,我们要有积极愿景,只有在此基础上我们才能合

作,即使合作让我们牺牲我们的自由。

   现在我们的积极愿景必须是全球共有的,我们知道技术没有国界,这不是一个国家能够独善其身的事情。如果最后能

够建立超级智能,这个超级智能也一定要普及、惠及所有人类,而不只是让一小部分人受惠。

   我们可以以AI为例来看共同积极愿景。如果要实现全球的高福利体系,我认为AI能够发挥积极作用。例如,AI可以

促进医疗,增加受教育的机会。有的人会说,全球的共享是不可能实现的,我觉得这样说不对。我们现在已经有了很多

全球积极的愿景,比如可持续发展目标,中国、美国和很多国家都已经提出了可持续发展的目标,正在为此奋斗。在这

个问题上,AI对每一个目标的实现都能发挥促进作用。

   但我们应该有更远大的目标。这些目标可能在10年内实现,但我们不能停留在这些目标上。我们还要继续,除了减

少不平等、减少贫困,我们要行动起来来应对气候变化,让地球更加持续地发展,让我们使用AI去治愈所有疾病。不是

说这些疾病不能治愈,只是我们不具备足够的智能来找到治愈方法,AI在这方面可以起到推动作用。

   今天我在这里传达的信息是,我们要真正实现人工智能的技术向善,与AI和谐共存。这不仅是在技术层面上,我们

应该有着更广阔、更远大的目标。我们要画一条清楚的红线,什么是可接受的、什么是不可接受的?所以我们要科技向

善,而不是科技向恶。我们要和技术和谐相处,我们需要的是全球共有的积极愿景。

   今后,我们还会听到更多由AI造成的问题。如果我们只是关注负面的话,它不会促进我们的合作。反过来,如果我

们能够意识到积极的契机愿景,我们将第一次真正把我们的愿景掌握在自己手中。我们现在有能力、有力量去打造我们

想要的未来,创造前所未有的未来。这样的未来不仅仅是几百万,有可能是更远。

   在此次“科技向善”年度论坛上,除泰格马克之外,张志东、美国家庭网络安全研究所主席斯蒂芬·巴尔克姆

(Stephen Balkam)、财经作家吴晓波和腾讯高级副总裁郭凯天也从不同角度分享了对于科技向善的看法。同时,腾

讯研究院院长司晓和腾讯学院院长马永武在本次论坛联合发布《千里之行·科技向善2020白皮书》,白皮书记录了过去

一年科技、互联网与社会各界在科技向善领域的最新动态与案例。