现场视频截图。
【香港商报网讯】 2020冬季达沃斯年会于1月21—24日在瑞士达沃斯举行。主题为“凝聚全球力量,实现可持续发展”。华为公司创始人、总裁任正非出席并发言。他表示,人类经历了漫长的历史,技术进步和人们的生理进步基本上是同步的,所以内心没有恐慌。但当火车、轮船、纺织机械等出现后,人们出现了一些小的恐慌,不过,因为工业社会的发展,恐慌随之逐渐消除了。
任正非强调,不必对人工智能过于恐慌,人工智能的发展不会像原子弹一样,对人类造成重大伤害。但他也强调,自己指的是弱人工智能,此外,也要有边界的。
他还提到,今年美国又会升级技术来打击我们,但是我们认为我们受影响也不会非常大。我们有去年第一轮打击我们的经验和队伍的锻炼,所以应对今年的打击,我们更胸有成竹。
任正非透露在20年前曾租住30平米小屋,所有钱都投入研发,20年来投入研发“备胎”计划花了几千亿。
此外,在接受媒体采访时任正非还透露了鸿蒙系统最新的进展,“系统已经上线,未来将被应用到华为手机、平板、电视等产品上。”受此消息影响,港股今日华为相关概念表现活跃,科技股也集体上涨。
其中,舜宇光学科技涨4.3%,瑞声科技涨3.29%,丘钛科技涨2.7%,比亚迪电子涨5.38%。
科技股集体走高,其中,中芯国际涨7.5%,小米涨近5%,华虹半导体涨4.5%,中兴涨2%,腾讯、美团、阿里涨逾1%。
早前,任正非在对外介绍鸿蒙系统的时候曾表示,该系统是面向互联网的,如果用作操作系统,需要经历转化这一过程,如今系统已经上线,也就意味着转化已经完成。
去年年底,Counterpoint发布数据报告显示,Android、Windows、iOS、macOS和Linux为全球市场份额排名前五的操作系统,其中Android市场份额达39%。而就在去年,谷歌暂停了与华为的部分业务往来,其中便包括撤销对华为手机的Android使用许可。
在谈及华为在过去一年经历的困难,任正非表现的很乐观,“2019年,实体清单对华为的打击其实并不大,因为我们早就做了准备,多年来持续投入了超千亿元用于技术和产品研发,也就是打造‘备胎’。除此之外,今年的打击可能还会有所升级,但华为人在经历了第一轮打击后更加有经验,也更加团结,我们是胸有成竹的。”
以下为任正非发言五大看点:
01
任正非:当前人们绝对财富增多 但贫富差距却越来越大
任正非表示,今天的社会不管是穷人还是富人,绝对财富是比过去几十年以前都多了,但是贫富悬殊拉大了,并不等于穷人是走向更加绝对贫困了。解决这个社会贫富悬殊是社会问题,不是技术问题。
02
任正非:不必恐慌人工智能 科技是向善的
在芯片的已经精进到2微米、3微米不是问题了。由于计算机能力的极大的提升,已经让信息技术塞满了这个世界;生物技术的突破,各种技术的突破,跨学科跨领域的突破,学科交叉创新的突破,使人类社会积累了能量,这个能量就是技术大爆炸,这个爆炸给人们带来一种恐慌,爆炸是好还是坏?任正非表示,我认为是好的,他认为,人类在新技术面前总会利用它来造福这个社会,而不是破坏这个社会,因为整个社会绝大多数人向往未来是幸福的生活,不向往是磨难。
03
任正非:不必对人工智能过于恐慌 但技术要有边界
任正非表示,不必对人工智能过于恐慌,人工智能的发展不会像原子弹一样,对人类早上重大伤害。但他也强调,自己指的是弱人工智能,此外,也要有边界的。
04
任正非:不担心美国进一步打击华为
任正非在达沃斯论坛上表示,今年美国要进一步打击华为,但我们并不太担心。我不认为世界会分裂为两极化,技术发明是多元化的,技术进步有利于社会进步。
05
任正非:美国长期习惯做世界老大,别人做好他就不舒服
在回答主持人提问时,任正非称,美国长期习惯他就是世界老大,每件事情都应该他做的最好,某一件事情别人做好了可能心里就不一定很舒服,他这种不舒服不代表世界潮流。
“我认为人类最终都要很好的运用人工智能,怎么造福人类,就是要制定一些规范,什么东西允许你研究,什么东西不允许研究,要控制它的走向。”
以下为任正非发言实录:
主持人:现有形式的民主是不能够抵抗AI以及生物技术的变化,所以您怎么看待第一个问题?
Harari:确实如此,在浅的层次来说,这就像19世纪工业革命一样,也就是说在行业里头的领军人物,他们能够主宰全世界,他们在政治、经济上能主宰的,就像19世纪那时候一样,AI的革命以及生物技术的革命在21世纪就是如此,现在已经开始了,现在的军备竞赛,可能很快会导致数据殖民地,也就是不需要派兵,只要有数据就能够进行政治主宰,在更深层次更广泛层次我认为这将会打造人类的未来,打造我们未来的生命的情况,因为新的技术会让一些企业和政府,能够侵入人类这个生命体,不再是侵入电脑、银行帐户,而是我们可以入侵人类这个生命体,要入侵人类这个生命体需要很多生物学方面的知识,需要计算机能力,需要许多数据,所以如果你们有足够的数据关于我的话,有足够的生物学知识和计算机能力,您可以侵入我的身体、大脑,侵入我的生命,对我非常了解,比我对我自己还了解,一旦到了这个点之后,我们现在非常接近这个点了,这时候自由市场和民主和整个政治体系包括维权政治体系,都已经不行了。
主持人:我们不知道未来会如何,一旦我们越过这个临界点,越过这个拐点,您认为中国在这方面是走在前沿的,是不是体现了我们的未来?
Harari:我们看到有两种不同资本主义,美国的和中国的,两种不同对资本主义的看法,其实美国也有很多监控的体系,非常复杂的监控体系,目前这种竞争的态势没有第三方能够在里头三足鼎立,这个军备竞赛的结果将会影响并打造我们未来所有人在25年以后生活的情况,我们会有新的实体、人种。
主持人:我们人类的未来,我们政治体系的未来以及受到影响了。
任正非:我读过Harari的《未来简史》和《今日简史》的书,他对人类社会规律的认识,对科技和世界结构,和人们意识形态的影响,有些观点我还是认同的。但是首先要看到,科技是向善的,科技的发展不是为了做我(音),而是向善,人类历史经历了漫长的历史,在过去几千年的时候,人们技术进步和人们生理进步基本是同步的,人们内心没有恐慌,火车轮船出现的时候,包括纺织机械出现的时候,人们也出现小的恐慌,但是为后来的工业社会的发展这些恐慌就消除了。在这个社会不断的发展过程中,社会进入信息社会,这个时代是什么时代?是电子技术高度的突破了,今天把芯片的能力已经精进到2微米、3微米不是问号了。由于计算机能力的极大的提升,已经让信息技术塞满了这个世界,生物技术的突破,各种技术的突破,跨学科跨领域的突破,学科交叉创新的突破,跟人类社会积累了能量,这个能量就是技术大爆炸,这个爆炸是给人们带来一种恐慌,爆炸是好还是坏?我认为是好的,我认为人类在新技术面前总会利用它来造福这个社会,而不是破坏这个社会,因为整个社会绝大多数人向往未来是幸福的生活,不向往是磨难。
我刚出生的时候就是原子弹在广岛爆炸的时候,所以到了7、8岁的时候,人们最大的恐慌就是原子弹,全球都是恐怖原子弹,随着人类社会拉长的尽头来看,原子能发电,原子能造福了社会,包括放射性在医学上在各方面的应用都造福了人类,我们今天对人工智能的恐慌没有必要这么恐慌,原子弹爆炸可能会伤害人类,人工智能的发展不会有这么大对人类的伤害。我们研究的主要是弱人工智能,是有边界的,是有一定的条件,是有一定数据支撑的,比如汽车驾驶、矿山开采,等等一系列的这些东西还是有边界的,这些边界在人工智能的提高以后,是大大的创造了财富。
在创造财富过程中有很多的十年,财富创造出来总是比没有好,今天我们这个社会不管是穷人,绝对财富是比过去几十年以前都多了,但是贫富悬殊拉大了,并不等于是穷人走向绝对贫困,解决社会贫富悬殊加大的问题,是社会问题,不是技术问题。
主持人:谢谢,提出了非常有意思的问题,我们说到原子弹和原子能,这种对比是好的吗?请问Harari教授,在场所有人都同意技术会带来很多好处,技术能向善,确实是如此,但是您是否认为人工智能和生物技术在本质上是否比过去的技术更危险?
Harari:原子能和原子弹的比较非常重要,也就是说当人类遇到威胁的时候,就能团结起来,哪怕是在冷战时期,都能够为此制定规则避免战争,这在冷战的时候是如此,人工智能和原子弹相较,是因为它的危险并不那么明显,至少对于一些人来说他们看到人工智能会带来巨大的好处,所有人都知道使用原子弹就是世界末日,不可能打原子仗之后会获胜的。现在有些人认为在人工智能的竞赛中它是能获胜的,这是有道理的,但这也是很危险的。
主持人:是华盛顿还是北京的想法?
Harari:应该是北京和旧金山的想法,华盛顿他们还不太了解什么是人工智能,或者人工智能带来的影响,其实是北京和旧金山之间的竞赛,旧金山越来越接近华盛顿了,因为他们需要政府的支持,所以他们不是完全分开的其实,这是一个问题。
主持人:请问任总,您现在是很多美国行动的目标,我们刚刚谈了这些,您是否理解为什么美国感到忧虑?是合理的吗?美国的忧虑是合理的吗?中国是一个比较维权的体系,是否应该走在技术前沿?这种技术可能会打造人类的未来和自由的未来,是合理的忧虑吗?
任正非:美国其实还没有真正想明白人工智能,我认为中国其实还没有开始想,如果这两个国家开始想,应该在基础教育和基础研究上加大投入,其实中国现在的教育还是沿着工业社会的教育方式,主要以培养工程师为中心的教育体系,人工智能在中国不可能发展很快,人工智能需要大量的数学家,需要大量的超级的计算机,超级能力的连接,超级的程序,这些地方来说,中国还是在科技上在起步的国家,所以我认为美国自己的忧虑就过多了。
美国长期习惯他就是世界老大,每件事情都应该他做的最好,某一件事情别人做好了可能心里就不一定很舒服,他这种不舒服不代表世界潮流,我认为人类最终都要很好的运用人工智能,怎么造福人类,就是要制定一些规范,什么东西允许你研究,什么东西不允许研究,来控制它的走向。我个人认为在二三十年之内,或者更长的一段时间之内,Harari先生想的就是电子技术侵入人类思维和人融成一种新的形态,我认为在二三十年内还不会出现,最终出现是改善生产的效率,创造更多的财富,只要有更多的财富,政府就有分配的东西,就能平衡社会矛盾。
这次在经济学人发表文章的时候,也引用了电子、芯片和基因结合起来,会形成什么样的东西,他们杂志给我删掉了,因为这也是挑起话题,我马上同意了,我知道我自己出了一个难题。
主持人:美国政府可能不太理解AI、人工智能或者是过度高估来自中国的威胁,目前的技术竞赛的后果是什么?带来什么样的后果?美国列入黑名单会带来什么后果?
任正非:本来华为公司是一个很亲美的公司,华为公司今天能那么成功,绝大多数管理都是向美国学习的,因为我们从创立到现在,我们雇佣了几十个美国的顾问公司教我们怎么管理。教我们怎么管理的过程中,实际上我们整个体系很像美国,美国应该感到骄傲,它的东西输出了以后,给我们带来了发展,所以因此从这一点出发来说,我认为美国不用过于担心华为在世界上的地位和成长。美国实体清单打击我们,去年打击我们就是没起到多大作用,因为我们认为我们基本上能抵抗的过来,我们已经过去就做了一些准备。
今年他又会升级继续来打击我们,但是我们认为我们受影响也不会非常大,因为我们本来在十几年前我们是一个很穷的公司,我在20年前我自己并没有房子住,我是租了30多平方米的房子来住,钱到哪儿去了,全投资到公司的研究开发上去了。我们那时候如果美国有了安全感,我是不需要做备份的,因为我们没有安全感,我们就做了备份,花了几千亿做了备胎,第一轮打击我们应对了。第二轮技术打击我们,我们有去年打击我们的经验和队伍的锻炼,应对今年的打击我们更胸有成竹,不会出现这个问题。但是世界会不会因此而分裂成两个世界?我认为不会的,因为科学是真理,真理只有一个,任何一个科学家发现这个真理,就广播让全世界都知道了,在科学技术这个底层全世界是同级的,但是技术发明本身就是可以多元化的,技术发明是个多元化的,就是汽车,你看汽车,就是有多种汽车型号在竞争,这种竞争是有利于社会进步的,不强求社会必须唯一推进一种技术标准,但是世界会不会分裂,我认为科学技术这个底层是统一的,是不会分裂的。
主持人:您如何看待这一点?您也是经济学家,人工智能或生物技术的竞赛,是不是代表人类是输家?
Harari:一旦进入竞赛之后,许多技术的发展和试验,有些是非常危险的,许多人会意识到这种危险,不想走上这个方向,至少现在不是,所以我们不想这么做,不想和好的一方做,也不能信任另一方,如果美国这么做中国这么做我们也得这么干,这就是竞赛的逻辑,一个非常清楚的例子就是无人武器系统,这是一种竞赛,这是非常危险的发展,但是每个人都认为不能落后,所以就开始搞这种无人的武器系统,在其他许多方面越来越是如此,我也同意我们不可能看到人和电脑组成,在未来二三十年变成合二为一,但是在未来20年还是有许多发展的方向的,所以主要的聚焦的焦点就是入侵人体,入侵人类这种做法,只要你们对人有足够的数据,有足够的计算机能力,能够更好的比我们自己更好了解我们自己,这就是有可能实现的,所以我想听听你们所有人的想法,我不是一个技术专家,但是我想知道你们了解技术的人怎么想的,我们是否已经接近了这个临界点,不管是脸谱或者是政府或者是华为,能够有系统的入侵几百万人,也就是比他们更加了解他们自己,他们对我的了解比我对我自己还更了解,包括我的身体健康状况,我的过去的生命历史,一旦我们达到了这个点之后,带来的后果是他们可以预测甚至操控我的行为,也许他们不能完美的预测,但是他会比我自己做的更好。
主持人:请问任总华为现在到了这个情况了吗?是否更好的了解你们的客户?
任正非:Harari先生所想象的未来的科学技术会不会实现,我们现在还不能肯定,但也不否定,但是我们现在,作为我们现在的社会来说,我们是要更深刻的理解一个企业,比如说矿山,一个矿山的开采可不可以完全有人工智能,没有人?可以的,如果这个矿山在冰冻地区在高海拔地区,这个价值一定是存在的,比如说一些龙头的矿山,像巴西的矿山用这种开采方式可不可以?可以的,那我们必须要对这个进行深入的了解,才可能做的成。我们深入了解也没用,主要还是搞矿山的专家和电子专家结合起来才可能了解,只有好的医生和我们合作起来,我们才能做远程医疗。因此来说,对人的了解的深入程度是一步一步的了解,这一个人将来像Harari说的电子侵入人类,人就变成神了,但是也不用担心,因为到80岁人就死了,灵魂是不能继承的,不可能成为神。
主持人:好像已经有了这种武器了,这种武器系统已经存在了,您如何看待这种无人或者自主的武器?是危险的吗?如何能够不造成相互摧毁?
任正非:无人武器,因为我不懂军事,我也不是军事专家,如果人人都能造出无人武器,我看就跟棍棒差不多,就不是武器了。
提问:
请问Harari教授,您为什么认为人工智能这个竞赛,不管是中国美国,至少是在中国的一些应用是民用的,没有那种竞赛的感觉,是民用的人工智能,另外一点,要澄清一点,中国也建议在联合国系统里头禁用一些设备,没有人支持这个建议,去年中国和其他国家一样禁止使用一些不合法的设备,谢谢。
Harari:所谓的军备竞赛不是说是武器,今天你要征服一个国家,不需要武器,这种过去的常规武器,没有清楚的界限,就像19世纪的时候,欧洲的帝国主义,他们所谓的商业帝国主义和军事政治帝国主义是没有界限的,是一样的,现在也造成了数据殖民主义这种新现象,你想控制一个国家,在非洲、中东、拉美,你想象一下,20年后也许在华盛顿也许在北京或者在旧金山,如果有个人他完全了解一个人所有的政治、法官、技术各种历史和各种数据,所以不需要武器,不需要士兵,不需要坦克,他就完全了解这个人的所有数据,最高法院的候选人是巴西总统的候选人,他们完全可以掌握数据,他的心理的弱点,知道他在大学时干了什么,完全知道,那么这个国家还算是独立国家吗?还就是一个别人的数据殖民地呢?所以这就是所谓的军备竞赛,不需要开发武器的。
提问:
首先请问,在我们的世界政治和大企业非常强大,可以改变消费者的生活,一般人他还有什么权利?我是个技术人,技术专家,我对信息安全有我的看法,未来我们消费者还有什么权利?
任正非:其实技术的交流越来越方便,人们对事物的认识越来越充分,人类在变的聪明,人类这个聪明的速度在加速,就像我们现在,有时候看小时候的课本,已经不怎么看的懂了,我们怎么知道小学生能学这些东西,我记得我们大学学的很多东西在中学里面就已经学完了,所以我们觉得人类实际上在信息实际是进步了,进步了还是要人来掌握这个东西,不同的人掌握不一样,人的主观能动性应该也是存在的,不是变多余了。
主持人:所以技术让人更有能力更有权利了。
Harari:不能一刀切,他能够提升,同时也能限制个人的能力和行动能力,个人特别是工程师能做的是,能够设计出不同的技术,例如现在有许多努力是要打造监控的体系,监控个人,以服务政府和企业,但是我们当中有些人也可以做出决定,就打造完全相反的技术,技术其实是中性的,你们可以设计出这样一个工具,是协助政府来监控的,或者是也可以为人民服务的技术,如果他们要监控公民没有问题,但是你可以监督政府腐败,或者扩病毒软件,给计算机设计抗病毒,也可以给人脑设计抗病毒软件,避免人被入侵了,这取决于你们的。