欢迎光临
币圈最新消息

a16z 创始合伙人:为什么 AI 会拯救世界?

撰写:MARC ANDREESSEN

编译:深潮 TechFlow

AI时代带来了惊喜和恐慌,但好消息是 AI 不会毁灭世界,反而可能拯救世界。

a16z的创始合伙人MARC ANDREESSEN 认为,AI提供了增强人类智慧的机会,使我们在各个领域取得更好的结果。每个人都能拥有一位 AI 导师、助手或合作伙伴,帮助我们最大化潜力。AI还能推动经济增长、科学突破和艺术创作,改善决策和减少战争伤亡。然而,AI的发展也存在风险,而当前的道德恐慌可能夸大了问题,其中一些行动者可能是为了自身利益。

如何理性看待AI,又应该从哪些视角来看待AI? 这篇文章为我们提供了一个可行、可信与可深入的探讨范例。

以下是全文内容:

AI 时代已经到来,惊喜之余也带来许多惊慌。幸运的是,我在这里带来好消息:AI 不会毁灭世界,事实上可能拯救世界。

首先,简要介绍一下什么是 AI:将数学和软件代码应用于教授计算机如何理解、综合和生成知识,就像人类所做的一样。AI 像任何其他计算机程序一样——运行、接受输入、处理和生成输出。AI 的输出在很多领域内都很有用,从编码到医学、法律、创意艺术等。它由人拥有和控制,就像任何其他技术一样。

AI 不是杀手和机器人,会启动并决定谋杀人类或以其他方式破坏一切,就像你在电影中看到的那样。而 AI 可能成为使我们关心的一切变得更好的方法。

为什么 AI 可以使我们关心的一切变得更好?

社会科学多年来进行了数千项研究,最具有可靠性的核心结论是:人类的智慧可以改善生活结果。聪明人在几乎所有活动领域都有更好的结果:学业成就、工作表现、职业地位、收入、创造力、身体健康、寿命、学习新技能、管理复杂任务、领导才能、创业成功、冲突解决、阅读理解、金融决策、理解他人的观点、创意艺术、育儿结果和生活满意度。

此外,人类的智慧是千年来我们用来创造今天生活世界的杠杆:科学、技术、数学、物理、化学、医学、能源、建筑、交通、通信、艺术、音乐、文化、哲学、伦理和道德。如果没有在所有这些领域应用智慧,我们仍将生活在泥沼中,勉强维持基本的农业生计。相反,我们已经利用我们的智慧,在过去 4000 年里将我们的生活水平提高了约 10000 倍。

AI 为我们提供了一个增强人类智慧的机会,使得所有智慧成果——从创造新药到解决气候变化到星际旅行等——都可以从这里开始变得更好。

AI 对人类智慧的增强已经开始——AI 已经以各种形式出现在我们周围,例如许多种类型的计算机控制系统,现在通过像 ChatGPT 这样的大型语言模型迅速升级,并且将从此处快速加速发展——如果我们允许的话。

在我们这个 AI 的新时代中:

每个孩子都将拥有一位无限耐心、无限同情、无限知识和无限帮助的 AI 导师。AI 导师将在每个孩子的成长过程中陪伴他们,以无限爱帮助他们最大化潜力。每个人都将拥有一位无限耐心、无限同情、无限知识和无限帮助的 AI 助手/教练/导师/训练师/顾问/治疗师。AI 助手将在生活的所有机会和挑战中陪伴每个人,最大程度地提高每个人的成果。每个科学家都将拥有一个 AI 助手/合作伙伴/伙伴,极大地扩展了他们的科学研究和成就范围。每个艺术家、工程师、商人、医生和护理人员在他们的领域也拥有同样的 AI 助手。每个人民领袖——首席执行官、政府官员、非营利组织主席、运动教练、教师——也是如此。领导者对其领导对象做出更好决策的增幅效应是巨大的,因此这种智力增强是最重要的。整个经济的生产率增长将显著加速,推动经济增长、新行业的创造、新工作的创造和工资增长,并导致全球高度物质繁荣的新时代。科学突破、新技术和药物的出现将显著扩展,因为 AI 帮助我们进一步解码自然法则。艺术创作将进入黄金时代,AI 增强的艺术家、音乐家、作家和电影制片人将能够以比以往任何时候都更快、更大规模地实现他们的愿景。我甚至认为,当战争不可避免时,AI 将通过大幅减少战时死亡率来改善战争。每场战争都以由受限制的人类领袖在极度压力和极度有限的信息下做出可怕的决策为特征。现在,军事指挥官和政治领袖将拥有 AI 顾问,帮助他们做出更好的战略和战术决策,最小化风险、错误和不必要的流血。简而言之,人们今天用自己的自然智能所做的任何事情都可以通过 AI 更好地完成,从治愈所有疾病到实现星际旅行。这不仅仅是智力的问题!也许 AI 最被低估的品质是它如何人性化。AI 艺术赋予那些否则缺乏技术技能的人自由创造和分享他们的艺术想法。与一个有同情心的 AI 朋友交谈确实提高了他们处理逆境的能力。AI 医疗聊天机器人已经比他们的人类同事更具同情心。无限耐心和同情的 AI 将使世界变得更温暖、更友善,而不是使世界变得更加苛刻和机械化。

然而,这里的风险很高。 AI 可能是我们文明创造的最重要、最好的东西,与电力和微芯片相当,甚至可能更超越它们。

AI 的发展和普及——远非我们应该害怕的风险——是我们对自己、我们的孩子和我们的未来的道德义务。有了 AI,我们应该生活在一个更美好的世界里。

那么为什么会出现恐慌呢?

与这种积极的观点形成鲜明对比的是,关于 AI 的公共话题充满了恐惧和偏执。

我们听到各种声音称 AI 将杀死我们所有人,毁坏我们的社会,夺走所有的工作,引起严重的不平等。如何解释这种从近乎乌托邦到反乌托邦结果的差异如此之大?

历史上,每一项重要的新技术,从电灯到汽车,从收音机到互联网,都引发了恐慌——一种社会传染病,使人们相信新技术将毁灭世界、毁灭社会或两者兼而有之。悲观主义者档案馆的优秀工作记录了几十年来由技术驱动的这些道德恐慌;他们的历史使模式变得非常清晰。事实证明,现在这种恐慌之前也有过。

当然,许多新技术确实导致了不良后果——通常是那些在其他方面对我们非常有益的技术。因此,仅仅存在一种道德恐慌并不意味着没有什么需要关注的问题。

然而,道德恐慌本质上是非理性的——它将可能是合理关注的问题夸大成一种歇斯底里的程度,使真正严重的问题被忽略。

现在我们已经出现了 AI 道德恐慌。

这种道德恐慌已经被各种行为者用作推动政策行动的动力——新的 AI 限制、法规和法律。这些行为者对 AI 危险性进行了极其戏剧化的公开声明——满足并进一步加剧道德恐慌——所有这些人都自诩为无私的公共利益捍卫者。

但他们是吗?

他们是对还是错?

经济学家已经观察到这种改革运动中的一个长期存在的模式。此类运动内部的行为者分为两类——“洗礼者”和“走私者”——借鉴了 20 世纪 20 年代美国禁酒令的例子:

“洗礼者”是真正的信徒社会改革者,他们认为情感上,即使不是理性上——需要新的限制、法规和法律来防止社会灾难。

对于酒禁,这些行为者通常是真正虔诚的基督教徒,他们认为酒精正在摧毁社会的道德基础。对于 AI 风险,这些行动者相信 AI 可能会产生某种存亡风险——如果给他们一个测谎仪,他们真的是这么想的。

“走私者”是自我利益的机会主义者,他们可以通过实施新的限制、法规和法律从中获得财务利益,使自己免受竞争对手的影响。对于酒禁,这些人通过出售非法酒精赚取财富。

在 AI 风险中,这些人是 CEO,如果建立监管壁垒,这些 CEO 将赚更多的钱,因为政府保护它们免受新创业公司和开源竞争的影响。

一些人会认为,有一些人表面上的“洗礼者”,同时也是“走私者”——特别是那些受到大学、智库、活动组织和媒体机构付钱攻击 AI 的人。如果你收到工资或获得拨款来培养 AI 恐慌……你很可能是“走私者”。

“走私者”的问题在于他们胜利了。 “洗礼者”是天真的意识形态者,“走私者”是愤青的操作者,所以这类改革运动的结果通常是“走私者”得到了他们想要的——监管、对竞争的保护——而“洗礼者”则疑惑着他们的社会改进驱动力哪里错了。

我们刚刚经历了一个惊人的例子——2008 年全球金融危机后的银行改革。 “洗礼者”告诉我们,我们需要新的法律和法规来打破“大而不倒”的银行,防止这样的危机再次发生。因此,国会通过了 2010 年的多德-弗兰克法案,该法案被宣传为满足“洗礼者”的目标,但实际上被“走私者”——大型银行所控制。结果是,2008 年“大而不倒”的银行现在更加庞大。

因此,在实践中,即使“洗礼者”是真诚的——即使“洗礼者”是正确的——他们也会被狡猾和贪婪的“走私者”利用来获益。

目前,在推动 AI 监管方面也发生了这种情况,仅仅确定行动者并怀疑他们的动机是不够的。我们应该就“洗礼者”和“走私者”的观点进行评估。

AI 风险#1:AI 会杀死我们所有人吗?

最初和最原始的 AI 风险是 AI 将决定杀死人类。

由我们自己创造的技术将起义并摧毁我们的恐惧深深编码在我们的文化中。希腊人通过普罗米修斯神话来表达这种恐惧——普罗米修斯为人类带来了破坏性的火焰力量,更普遍地说是技术("techne"),因此被众神判处永久受苦。后来,玛丽·雪莱在她的小说《弗兰肯斯坦》或者又名《现代普罗米修斯》中给了我们现代人自己版本的这个神话,我们开发了实现永生的技术,然后这项技术起义并试图摧毁我们。

这个神话的假设进化目的是激励我们认真考虑新技术的潜在风险——毕竟,火确实可以用来烧毁整个城市。但正如火也是现代文明的基础一样,可以用来使我们在寒冷而充满敌意的世界中保持温暖和安全,这种神话忽略了大多数(全部?)新技术的利远大于不利方面,并在实践中引起了破坏性情绪而非理性分析。仅因为史前人类会像这样崩溃并不意味着我们必须这样做;我们可以运用理智。

我认为,AI 会决定直接杀死人类的想法是一个深刻的范畴错误。AI 不是一个通过数十亿年演化被激发参与适者生存之战的生物,就像动物和我们一样。它是由人们建造、拥有、使用和控制的代码——计算机。它在某个时候会发展出自己的思维,然后决定它有动机去试图杀死我们的想法是一种迷信的刻板印象。

简而言之,AI 没有意愿,没有目标,不想杀死你,因为它不是活着的。

现在,显然,有些人确信 AI 会杀死人类——“洗礼者”——他们因其可怕的警告而获得了大量的媒体关注,其中一些人声称已经研究这个主题数十年,并表示他们现在被他们所了解的知识吓坏了。其中一些真正的技术创新者甚至都是这样。这些行动者主张对 AI 实施各种奇怪和极端的限制,从禁止 AI 发展到对数据中心的军事空袭和核战争。他们认为,由于像我这样的人无法排除 AI 未来的灾难性后果,我们必须采取谨慎的立场,以防止潜在的存在风险。

我的回应是,他们的立场是非科学的——有什么可测试的假设?什么可以证明这一假设不成立?我们如何知道我们正在进入一个危险区域?这些问题大多没有得到回答,除了“你无法证明它不会发生!”事实上,这些“洗礼者”的立场非常非科学和极端——关于数学和代码的阴谋论——并且已经呼吁采取身体暴力,所以我将做一些我通常不会做的事情,并质疑他们的动机。

具体来说,我认为有三件事情正在发生:

首先,回想一下,约翰·冯·诺伊曼对罗伯特·奥本海默有关他在创造核武器方面的作用——这有助于结束了二战并防止了第三次世界大战——的回应是:“有些人会承认罪行以获得荣誉。”怎样才能以最引人注目的方式声称自己工作的重要性,而不显得过分自夸呢?这解释了实际上正在建造和资助 AI 的洗礼者的言辞和行动之间的不匹配——看他们的行动而不是他们的话。

其次,一些洗礼者实际上是走私者。有整个专业领域的“AI 安全专家”、“AI 伦理学家”、“AI 风险研究员”。他们被雇佣成为末日论者。

第三,在加利福尼亚州,我们因成千上万的异端组织而名声大噪,从 EST 到人民神庙,从天堂之门到曼森家族都有。其中许多,虽然不是全部,这些异端组织是无害的,甚至可能为在其中找到家园的疏离人群服务。但是,有些确实非常危险,而且邪教通常很难跨越导致暴力和死亡的界线。

现实是,对于旧金山湾区的所有人来说,显而易见,即“AI 风险”已经演变成了一个邪教,并突然出现在全球媒体的关注和公共谈话中。这个邪教不仅吸引了边缘人物,还吸引了一些真正的行业专家和不少富豪,包括直到最近的 Sam Bankman-Fried。

正是因为这个邪教存在,才会有一些听起来非常极端的 AI 末日论者——并不是说他们实际上具有使其极端化合理的秘密知识,而是他们自己把自己激动到了狂热状态,确实是……非常极端。

这种类型的邪教并不新鲜——在西方,长期以来一直存在着千禧主义传统,它产生了启示录邪教。AI 风险邪教具有所有千禧主义末世邪教的特征。引用维基百科(我添加了一些内容):

“千禧主义是指一个团体或运动(AI 风险末日论者)相信社会将发生根本性的变革(AI 的到来),此后一切都将改变(AI 乌托邦、反乌托邦或者世界末日)。只有戏剧性的事件(禁止 AI、对数据中心进行空袭、对未受监管的 AI 进行核打击)才能改变世界(防止 AI),并且这种变革预计将由一群虔诚和专注的人带来或幸存下来。在大多数千禧主义情况下,即将到来的灾难或战斗(AI 启示或其预防)将被一个新的、净化的世界(AI 禁令)所跟随,在这个世界中,信徒将获得回报(或至少被证明一直正确)。”

这种邪教模式是如此明显,以至于我很惊讶为什么更多的人没有看到它。

不要误会,邪教听起来很有趣,他们的写作材料通常很有创意和迷人,他们的成员在晚宴和电视上也很引人入胜。但是,他们极端的信仰不应该决定法律和社会的未来——这显然是不可取的。

AI 风险 #2:AI 会毁了我们的社会吗?

第二个广泛讨论的 AI 风险是,AI 将毁掉我们的社会,因为它产生的输出将是如此“有害”的,以这种邪教者的术语来说,即使我们没有被直接杀死,也会对人类造成深刻的伤害。

简而言之:如果机器人没有杀死我们,错误信息就会毁掉我们的社会。

这是一个相对较新的末日论者担忧,分支出来并在一定程度上接管了我上面描述的“AI 风险”运动。事实上,最近 AI 风险术语从“AI 安全”变成了“AI 对齐”(用于担心社会“危险”人士使用 AI)。最初的 AI 安全人士对这种转变感到沮丧,尽管他们不知道该如何将其放回原处——他们现在主张将实际的 AI 风险主题重命名为“AI 不杀每个人主义”,虽然还没有被广泛采纳,但至少这是明确的。

AI 社会风险声明的特点是其自己的术语“AI 对齐”。与什么对齐?人类价值观。谁的人类价值观?哦,这就是事情变得棘手的地方。

恰好,我曾亲眼目睹了一个相似的情况——社交媒体的“信任和安全”之战。正如现在显而易见的那样,多年来社交媒体服务一直受到政府和活动家们的巨大压力,要求封禁、限制、审查和其他方式压制各种内容。同样关于“仇恨言论”(及其数学对应物“算法偏见”)和“错误信息”的担忧也被直接转移从社交媒体领域到“AI 对齐”这个新领域。

我从社交媒体战争中学到的主要经验是:

一方面,没有绝对自由言论的立场。首先,包括美国在内的每个国家都会将某些内容视为违法。其次,有某些类型的内容,如儿童色情和煽动暴力,几乎被所有社会普遍认为是无法容忍的——无论是否合法。因此,任何促进或产生内容(言论)的技术平台都将有一些限制。

另一方面,一旦限制内容的框架建立起来——例如针对“仇恨言论”、特定伤害性词语或虚假信息的限制——一系列政府机构、活动家压力团体和非政府实体将开始加速行动,并要求越来越多的审查和打压他们认为对社会和/或自己个人喜好构成威胁的言论。他们甚至会采取公然的重罪犯罪手段。在社交媒体领域,这种循环看起来可能永无止境,并得到我们精英权力结构的热情支持。这已经在社交媒体上持续了十年,只有某些特殊情况除外,而且越来越热烈。

因此,这就是现在围绕“AI 对齐”形成的动态。其拥护者声称有智慧来设计对社会有益的 AI 生成的言论和思想,并禁止对社会有害的 AI 生成的言论和思想。反对者认为,思想警察们极其傲慢和自负——在美国至少往往是明目张胆的犯罪。

由于“信任和安全”和“AI 对齐”的拥护者都聚集在全球人口非常狭窄的美国沿海精英阶层中,包括许多从事技术行业和写作的人士。我现在不会试图说服你们放弃这种想法,我只是要说明这是需求的本质,而且大多数世界上的人既不赞同你的意识形态,也不希望看到你获胜。

派系道德标准所施加的社交媒体和 AI 的支配性正在加强,如果您不同意这种道德标准,那么您还应该意识到,对于 AI 被允许说/生成什么的争夺将比社交媒体审查的争夺更加重要。 AI 极有可能成为全球一切事物的控制层。

简而言之,不要让思想警察压制 AI。

AI 风险 #3: AI 会夺走我们所有的工作吗?

由于机械化、自动化、计算机化或 AI 而失去工作的恐惧已经是数百年来一直存在的恐慌,自机械织布机这样的机械设备问世以来就如此。尽管历史上每一次新的主要技术革命都带来了更多的高薪工作岗位,但每次这种恐慌浪潮总伴随着“这一次不同”的说法——这次它将最终发生,这项技术将给人类便宜劳动力带来致命打击。然而,这从未发生过。

在近期的过去,我们经历了两次技术驱动的失业恐慌周期——2000 年代的外包恐慌和 2010 年代的自动化恐慌。尽管许多评论家、专家甚至科技行业高管在这两个十年中不断地敲打桌子,声称大规模失业即将到来,但截至 2019 年底——就在 COVID 疫情爆发之前——世界上的工作岗位比历史上任何时候都要多,而且工资也更高了。

尽管如此,这个错误的观念却不会消失。

而且,它又回来了。

这一次,我们终于拥有了一个将夺走所有工作岗位并使人类劳动力变得无关紧要的技术—— AI。这一次历史不会重演,AI 将导致大规模失业——而不是经济、就业和工资的快速增长——对吗?

不,不会发生这种情况——实际上,如果允许 AI 在整个经济中得到发展和普及,它可能会引发史上最显著和持久的经济繁荣,伴随着相应的创纪录的就业和工资增长。以下是原因。

自动化导致失业的言论者一直犯的核心错误被称为“劳动力谬误”。这种谬误是错误的观念,即在任何特定时刻经济中有一定数量的劳动力要完成,要么机器完成,要么人类完成——如果由机器完成,则将没有工作可供人类完成。

劳动总量谬误从幼稚的直觉中自然而然地产生,但是这种幼稚的直觉是错误的。当技术应用于生产时,我们获得了生产力增长——通过减少投入而产生输出的增加。结果是商品和服务价格降低。随着商品和服务价格的下降,我们花费在它们上面的费用更少,意味着我们现在拥有额外的消费能力以购买其他物品。这增加了经济中的需求,推动了新的生产——包括新产品和新产业——的创建,进而为那些在先前的工作中被机器取代的人创造新的工作岗位。结果是一个更大的经济,更高的物质繁荣,更多的产业、产品和工作机会。

但好消息并不止于此。我们还会得到更高的工资。这是因为,在个体工人层面上,市场将补偿设置为工人的边际生产率函数。与传统企业中的工人相比,技术注入业务中的工人将更具生产力。雇主要么会因为他现在更有生产力而支付给该工人更多的工资,要么另一个雇主会出于自身利益这样做。结果是,通常情况下,引入技术到一个行业不仅会增加该行业的就业数量,还会提高工资。

总之,技术使人们更具生产力。这导致现有商品和服务的价格下降,工资上涨。这反过来又促进了经济增长和就业增长,同时激励创造新的工作岗位和新的产业。如果市场经济得以正常运转,如果技术得以自由引入,那么这是一个永无止境的持续向上的循环。因为,正如弥尔顿·弗里德曼所观察到的,“人类的欲望和需求是无穷无尽的”。技术注入的市场经济是我们接近实现每个人能够想象的一切东西的方式,但永远无法完全实现。这就是为什么技术不会摧毁就业的原因。

这些对于没有接触过这些想法的人来说是如此震撼,以至于您可能需要一些时间才能理解它们。但我保证我没有编造它们——实际上,您可以在标准经济学教科书中阅读有关它们的所有内容。

但这一次不同,您会认为。因为这一次,有了 AI,我们拥有可以替代所有人类劳动力的技术。

但是,使用我上面描述的原则,想象一下如果所有现有的人类劳动力都被机器替换会意味着什么?

这将意味着经济生产率增长的起飞速度将是绝对天文数字,远远超出任何历史先例。现有商品和服务的价格将全面降至接近零。消费者福利将飙升。消费者支出能力将飙升。经济中的新需求将爆炸性增长。企业家将创造令人眼花缭乱的新产业、产品和服务,并尽可能快地雇用尽可能多的人和 AI 来满足所有新需求。

假设 AI 再次取代了这些劳动力?循环会重复,推动消费者福利、经济增长以及就业和工资增长更高。这将是一个直线向上的螺旋,达到亚当·斯密或卡尔·马克思从未敢想象的物质乌托邦。

我们应该感到幸运。

AI 风险#4: AI 会导致严重的不平等吗?

对 AI 夺走工作岗位的担忧直接过渡到下一个 AI 风险,假设 AI 确实夺走所有工作岗位。那么,难道这不会导致大规模和严重的财富不平等吗?AI 所有者将获得所有经济回报,而普通人一无所有。

这个理论的缺陷在于,作为技术的所有者,将其保留给自己并不符合您的利益——相反,将其销售给尽可能多的客户符合您的利益。任何产品在全球范围内的最大市场是整个世界,80 亿人。因此,在现实中,每种新技术——即使开始时只在大公司或富有的消费者中销售——也会快速扩散,直至落入最大可能的大众市场手中,最终覆盖到全球所有人。

一个经典的例子是马斯克在 2006 年公开发布的所谓“秘密计划”:

第一步,制造[昂贵的]跑车。第二步,利用这笔钱制造一辆价格更实惠的汽车。第三步,利用这笔钱制造更加实惠的汽车。

…当然,这正是他现在所做的,也因此成为了世界上最富有的人。

关键在于最后那个观点。如果马斯克今天只卖给富人汽车,他会变得更富吗?不会。如果他只为自己制造汽车,他会比现在更富吗?当然不会。他通过将汽车销售给全球最大的市场——全世界——来最大化自己的利润。

简而言之,每个人都可以获得此类产品——正如我们过去看到的不仅是汽车,还包括电力、收音机、计算机、互联网、手机和搜索引擎。这些技术制造商的动机非常强烈,他们将尽可能地推动价格下降,使全球所有人都能够负担得起。这正是目前在 AI 领域已经发生的事情——这就是为什么您现在可以使用最先进的生成式 AI,而且甚至可以免费使用 Microsoft Bing 和 Google Bard 的原因——这也是未来将继续发生的事情。不是因为这些供应商慷慨,而恰恰是因为他们贪心——他们想要扩大市场规模,从而最大化利润。

因此,发生的情况恰恰相反,技术并没有推动财富的中央集权化,而是赋予了技术的个体客户——最终包括全球所有人——更多的权力,并占据了大部分产生的价值。就像以前的技术一样,建立 AI 的公司——假设它们必须在自由市场中运作——将竞争激烈地使这种情况发生。

这并不意味着不平等在我们社会中不是一个问题。它确实存在,只是它不是由技术推动的,而是相反,它是由经济领域中最抵制新技术、政府干预最多以阻止采用新技术(特别是住房、教育和医疗保健)的部门所推动的。 AI 和不平等的实际风险不是 AI 将导致更多的不平等,而是我们不允许利用 AI 来减少不平等。

AI 风险#5: AI 会导致坏人做坏事吗?

到目前为止,我已经解释了四个最常被提出的 AI 风险,现在让我们来谈论第五个问题,也是我真正同意的问题: AI 将使坏人更容易做坏事。

从某种意义上说,技术是一种工具。从火和石头开始,工具可以用于做好事——烹饪食物和建造房屋——也可以用于做坏事——烧人和殴打人。任何技术都可以用于好或坏。没错。而 AI 将使罪犯、恐怖分子和敌对政府更容易做坏事,这是毫无疑问的。

这导致一些人提议,在这种情况下禁止使用 AI。不幸的是, AI 不是一种难以获得的某种神秘物质。相反,它是世界上最容易获得的材料——数学和代码。

显然, AI 已经广泛应用。你可以从成千上万的免费在线课程、书籍、论文和视频中学习如何构建 AI,而且每天都有优秀的开源实现在扩散。 AI 就像空气——它将无处不在。要阻止这种情况,需要采取的专制压迫措施将是如此的苛刻——一个监视和控制所有计算机的世界政府?戴着黑色直升机的武装警察抓捕不听命令的 GPU?

因此,我们有两种非常简单的方法来应对坏人利用 AI 做坏事的风险,这正是我们应该关注的。

首先,我们已经制定了法律,以使几乎任何人使用 AI 做坏事都成为犯罪。黑入五角大楼?那是犯罪。从银行盗窃钱款?那也是犯罪。制造生物武器?那也是犯罪。实施恐怖袭击?那也是犯罪。我们可以简单地专注于在能够防止这些犯罪时进行预防,并在不能防止时进行起诉。我们甚至不需要新的法律——我不知道有哪一个已经被提议的 AI 的实际不良使用还不是非法的。如果发现新的不良用途,我们将禁止该用途。

但是你会注意到我在那里漏掉了什么——我说我们应该首先关注在人工智能预防他们——这样的预防难道不意味着禁止人工智能吗?嗯,还有另一种方法可以预防这类行为,那就是将 AI 用作防御工具。使 AI 在好人手中变得强大,特别是那些防止坏事发生的好人。

例如,如果您担心 AI 产生虚假的人和虚假的视频,答案是构建新系统,使人们可以通过加密签名验证自己和真实内容。在 AI 之前,数字化创建和修改真实和虚假的内容已经存在;解决问题的答案不是禁止文字处理器、Photoshop 或 AI,而是利用技术构建真正解决问题的系统。

因此,第二点,让我们采取重大措施将 AI 用于善良、合法、防御性的目的。让我们把 AI 应用于网络防御、生物防御、打击恐怖主义以及我们所做的所有其他事情,以保护我们自己、我们的社区和我们的国家安全。

当然,世界上已经有许多聪明人正在做这件事——但如果我们把目前所有沉迷于禁止 AI 的努力和智慧应用于利用 AI 防范坏人做坏事,我认为毫无疑问,有 AI 的世界将比我们今天生活的世界更加安全。

应该采取什么行动?

我提出了一个简单的计划:

大型 AI 公司应该被允许尽可能快地、积极地构建 AI,但不应该被允许实现监管俘虏,也不应该建立因错误的 AI 风险声明而与市场竞争隔离。这将最大化这些公司惊人能力的技术和社会回报,它们是现代资本主义的珠宝。初创 AI 公司应该被允许尽可能快地、积极地构建 AI。他们既不应该面对大公司获得的政府保护,也不应该得到政府的援助。他们应该被允许自由竞争。如果初创公司没有成功,他们在市场上的存在也将不断激励大公司做出最好的表现——无论如何,我们的经济和社会都会从中获益。开源 AI 应该被允许自由扩散,并与大型 AI 公司和初创公司竞争。开源应该没有任何监管壁垒。即使开源没有击败公司,其广泛的可用性对全世界想要学习如何构建和使用 AI 以成为技术未来一部分的学生来说也是一个福音,它将确保 AI 可供任何可以从中获益的人使用,无论他们是谁或拥有多少钱。为了抵消坏人使用 AI 做坏事的风险,政府与私营部门合作应该积极参与每个潜在风险领域,利用 AI 最大化社会的防御能力。这不应该仅限于启用 AI 的风险,而是更一般的问题,如营养不良、疾病和气候。 AI 可以成为解决问题的极为强大的工具,我们应该将其视为如此。

这就是我们如何使用 AI 拯救世界。

我用两个简单的陈述结束本文。

AI 的发展始于 20 世纪 40 年代,同时也是计算机的发明。第一篇关于神经网络——我们今天所拥有的 AI 架构——的科学论文发表于 1943 年。在过去 80 年里,整整一代人的 AI 科学家出生、上学、工作,并在许多情况下离世,而没有看到我们现在正在收获的回报。他们每个人都是传奇。

今天,越来越多的工程师——其中许多人很年轻,可能有祖父母甚至曾祖父母参与了 AI 背后的思想创造——正在努力使 AI 成为现实。他们都是英雄,每一个人。我和我的公司很高兴能尽可能多地支持他们,我们将 100% 支持他们和他们的工作。

赞(0)
本文版权归原作者所有,不代表BT268(BT268.com)观点和立场;如有关于内容、版权等问题,请与我们联系。币圈最新消息 » a16z 创始合伙人:为什么 AI 会拯救世界?