网站首页

产品中心

智能终端处理器 智能云服务器 软件开发环境

新闻中心

关于PG电子

公司概况 核心优势 核心团队 发展历程

联系PG电子

官方微信 官方微博
主页 > 新闻中心

有效利他主义与人工智能:让OpenAI成功还是失败?

发布时间:2023-11-28 05:18浏览次数: 来源于:网络

  有效的利他主义由牛津大学的学者正式提出,但现在已经传播到世界各地,并被70多个国家的数万人应用。

  受有效利他主义启发的人们从事的项目范围很广,从资助分发2亿顶疟疾蚊帐,到对人工智能未来的学术研究,再到为预防下一次大流行制定政策。

  处于有效利他主义状态的人往往最终会关注那些看起来违反直觉、晦涩难懂或夸大其词的问题。但这是因为处理被其他人忽视的问题(其他条件相同)更有影响力,而且这些问题(几乎从定义上讲)将是非常规问题。一个例子是 AI 对齐问题。

  人工智能(AI)正在迅速发展。领先的人工智能系统现在能够进行有限的对话,解决大学水平的数学问题,解释笑话,从文本中生成极其逼真的图像,并进行基本的编码。14就在十年前,这一切都是不可能的。

  领先的人工智能实验室的最终目标是开发在所有任务上都与人类一样好或更好的人工智能。很难预测技术的未来,但各种论点和专家调查表明,这一成就更有可能在本世纪实现。根据标准经济模型,一旦通用人工智能能够在人类水平上发挥作用,技术进步可能会大大加速。

  其结果将是一个巨大的转变,其意义可能与1800年代的工业革命相似或更大。如果处理得当,这种转变可以为每个人带来富足和繁荣。如果处理不当,可能会导致权力极度集中在少数精英手中。

  在最坏的情况下,我们可能会失去对人工智能系统本身的控制。由于无法管理能力远远超过我们自己的生物,我们会发现自己对自己的未来的控制权与黑猩猩对自己的未来的控制权一样小。

  这意味着这个问题不仅会对当代人产生巨大影响,而且会对所有子孙后代产生巨大影响。从“长期主义”的角度来看,这使得它变得尤为紧迫,这种思想流派认为改善长期未来是我们这个时代的关键道德优先事项。

  如何确保人工智能系统继续推进人类价值观,即使它们在能力上与人类相同(或优于),被称为人工智能对齐问题,解决这个问题需要计算机科学的进步。

  尽管它具有潜在的历史重要性,但只有几百名研究人员致力于解决这个问题,而数以万计的研究人员致力于使人工智能系统更加强大。“

  有效利他主义是一种伦理学理论,强调通过采取能够最大限度地实现社会利益的行动来追求利他主义的目标。与传统的规范利他主义不同,有效利他主义注重实际的、可量化的结果,强调采取行动以最大化对整个社会的利益,通常与效用主义的理念相结合。

  在有效利他主义中,关注的焦点是通过有针对性的、能够取得实际效果的举措来实现社会的最大福祉。这可能涉及评估和比较不同行动对社会造成的影响,以选择最具效益的行为。

  关于有效利他主义运动与强人工智能毁灭人类之间的关系,这需要谨慎对待。有效利他主义本身并不直接涉及对强人工智能的立场,而是一个通用的伦理理论。然而,一些人可能将其应用于探讨人工智能伦理和安全性的问题。

  在讨论强人工智能的问题时,支持有效利他主义的人可能关注如何确保人工智能的发展和应用对整个社会产生最大的积极影响,同时最小化潜在的负面影响。这可能包括制定和推动相关政策、法规以及伦理准则,以确保人工智能的发展符合社会的整体利益。

  总的来说,有效利他主义是一种强调实际效果和社会最大福祉的伦理理论,其在讨论人工智能伦理和安全性时可能提供了一种框架。

  由于 ChatGPT 的巨大成功,阿尔特曼(Altman)已成为 AI 运动的公众形象。他的下台标志着OpenAI和业内其他人在短期内陷入混乱。

  然而,真实的故事可能是OpenAI董事会对人工智能安全性的担忧,这反过来又源于有效利他主义在硅谷的巨大影响。人工智能的安全性可能会在董事会和首席执行官阿尔特曼之间造成关键裂痕。

  EA是一个植根于功利主义的哲学框架,旨在最大化世界上的净利益。从理论上讲,EA它的理性主义慈善方法强调证据而不是情感。

  问题在于,该运动的领导人可能太容易出现道德失误,这反映了该运动批评者最糟糕的刻板印象。

  例如,名誉扫地的 FTX 创始人、忠诚的有效利他主义者 Sam Bankman-Fried 展示了 EA 的赚钱捐赠哲学——提倡赚很多钱,以便以后可以将其捐赠给慈善机构——如何轻松地不惜一切代价转化为赚钱,即使这意味着在此过程中欺骗数百万投资者。

  受 EA 影响的非营利性 OpenAI 董事会获胜,但该公司很可能在此过程中被摧毁。与阿尔特曼一起,OpenAI总裁格雷格·布罗克曼(Greg Brockman)和一些顶级研究人员已经逃离了该组织。涓涓细流可能很快就会泛滥成灾,因为数百名OpenAI员工已经签署了一封信,威胁要离开公司,除非Altman复职。

  整个事件表明,非营利组织可能受到善变的董事的困扰,往往容易偏离公共利益,基于短视的冲动和受伤的自尊心做出轻率的决定。与此同时,营利性组织至少在寻求保护其股东的投资方面有坚实的基础。这种对财务回报的关注就像一个指南针,引导营利性企业实现其使命。

  有效的利他主义作为指导非营利部门的指路明灯是一个糟糕的替代品。EA 的优点,比如它强调基于证据的解决方案,并不新颖,事实上,在这方面有很多更具吸引力的替代方案。与此同时,EA的坏方面似乎是不可挽回的。

  EA的领导者已经证明,他们愿意欺骗投资者,突破文明行为的界限,并破坏一些社会上最具创新性的公司,所有这些都符合领导者在特定时刻头脑中对美好事物的短视愿景。

  做最全面的好事提供了重要的指导,但它不能是故事的全部。为了一个社会的长远利益而牺牲自己,不可能是这个社会赖以建立的唯一原则。

  虽然OpenAI目前在人工智能领域处于领先地位,但鉴于该公司的内部动荡,预计会出现新的领导者。但最大的立场应该是反对EA。无论这种哲学的某些方面多么合理,被该运动吸引的江湖骗子都应该对其道德真实性提出严重的保留。太多科技行业最糟糕的领导者都在推广EA,揭示了一种可以蚕食美国最具创新性的行业之一的腐烂。

  随着阿尔特曼的下台,很明显,EA的影响力甚至感染了像OpenAI这样受人尊敬的公司。如果 OpenAI 代表了硅谷的道德指南针,那么我们似乎都处于艰难的时期。

下一篇:俄罗斯将推出新的人工智能战略以阻止美国垄断普京面临哪些新挑战?
上一篇:什么是人工智能(AI)?一文理解 AI 要点、发展史和局限性【2019更新】

咨询我们

输入您的疑问及需求发送邮箱给我们