网站首页

产品中心

智能终端处理器 智能云服务器 软件开发环境

新闻中心

关于PG电子

公司概况 核心优势 核心团队 发展历程

联系PG电子

官方微信 官方微博
主页 > 新闻中心

人工智能 (AI):它是什么、它是如何工作的和应用

发布时间:2024-01-04 19:43浏览次数: 来源于:网络

  关于人工智能(AI)这个热门话题的讨论很多,也许太多了,但矛盾的是,许多人仍然不了解它的含义和重要性。让我们尝试了解它是什么以及为什么每个人都在谈论它,概述当前使用的技术以及公司对人工智能最感兴趣的领域。

  什么是人工智能?简单地说,我们可以将其定义为技术系统解决问题或执行人类思维和能力的典型任务和活动的能力。如果我们看一下计算领域,我们可以将 AI 识别为处理能够自主“行动”(解决问题、执行行动等)的机器(硬件和软件)实现的学科。

  当前围绕该学科的蓬勃发展可以通过计算(今天有非常强大的硬件系统,体积小,能耗低)以及实时和短时间内分析的能力来解释技术成熟度巨大数据量和任何格式(分析)。

  然而,科学界对人工智能的兴趣始于遥远的地方:第一个真正的人工智能项目可以追溯到 1943 年,当时研究人员 Warren McCulloch 和 Walter Pitt 向科学界提出了第一个人工神经元,随后在 1949 年,加拿大心理学家唐纳德·奥尔丁·赫布(Donald Olding Hebb)的书,详细分析了人工神经元与人脑复杂模型之间的联系。神经网络的第一个功能原型(即为重现生物神经元的功能而开发的数学/计算机模型,以解决那些年理解的人工智能问题,

  人工智能一词“正式”起源于美国数学家约翰麦卡锡(1956 年),并与他一起“推出”了第一批专门针对 AI 的编程语言(1958 年的 Lisp 和 1973 年的 Prolog)。从那时起,人工智能的历史一直在波动,其特点是在数学模型方面取得了重大进展(越来越复杂,旨在“模仿”一些大脑功能,如模式识别),但在研究方面却有起有落。硬件和神经网络。后一条战线的第一次重大进步发生在 1990 年代,随着图形处理器进入“扩展”市场(即普通大众),

  最近的一波浪潮是在过去十年中随着所谓的“神经形态芯片”的发展而到来的,即在单个微组件中集成数据处理和存储的微芯片,这要归功于研究领域的加速。纳米技术,以模拟人脑的感觉和认知功能,这是许多初创公司也在关注的领域。

  稍微回顾一下历史,第一个神经网络模型要追溯到 1950 年代末:它就是所谓的“感知器”,由美国著名心理学家和计算机科学家弗兰克·罗森布拉特在 1958 年提出,一个网络具有输入层和输出层以及基于“误差反向传播”算法(误差最小化)的中间学习规则;本质上,数学函数基于对给定输入的有效输出数据的评估,它改变了连接(突触)的权重,导致有效输出与所需输出之间存在差异。一些行业专家将控制论和人工智能的诞生追溯到 Rosenblatt 感知器,尽管在紧随其后的几年里,数学家 Marvin Minsky 和 Seymour Papert 证明了 Rosenblatt 神经网络模型的局限性:经过充分的“训练”,感知器只能识别线性可分的函数。也就是说,通过输入向量空间中的训练集(学习算法),它设法将需要正输出的那些与需要负输出的那些分开。此外,单个感知器的计算能力是有限的,产量在很大程度上取决于输入的选择和“修改”突触从而“修改”输出的算法的选择。

  从技术角度来看,第一个重要的转折点发生在 70 年代末和 80 年代之间,随着 GPU 的发展,大大减少了网络训练时间,减少了 10/20 倍。

  在纯粹的计算意义上,人工智能可以被归类为包含理论和实用技术的学科,用于开发允许机器(尤其是“计算机”)至少在领域和领域中显示智能活动的算法。 .

  从对定义的第一次尝试来看,很明显有必要对人类的推理、元推理和学习的综合/抽象功能进行正式分类,以便在它们的基础上建立能够指定此类形式的计算模型。推理和学习是一项艰巨的任务,因为即使在今天,人类大脑的真正功能还没有被完全理解。

  另外,当我们谈到推理能力和从观察中自动学习的时候,我们经常会碰到认知计算,它应该被理解为基于人工智能(包括机器学习和深度学习)和信号科学学科的一组技术平台。处理(处理信号的能力)。

  已经从这个非常快速的“历史之旅”中可以看出,给人工智能下一个准确的定义是一项艰巨的任务,但通过分析它的演变,我们可以追踪它的轮廓,从而做出一些重要的分类。

  以人脑的功能为出发点(尽管我们知道其确切机制仍未完全了解),人工智能应该能够执行某些人类典型的动作/功能:

  – 理性行事(开始一个过程以从可用信息中获得最佳预期结果,这是人类经常无意识地出于习惯而做的事情)。

  这些考虑是绝对重要的,因为它们允许将人工智能分为两大研究/开发“坡度”,科学界也同意,弱人工智能和强人工智能:

  它确定了能够模拟人的某些认知功能而无需达到人的真正智力能力的技术系统。这些是用于解决问题的数学程序,其功能被开发用于解决问题或机器可以做出决策。

  在这种情况下,我们所说的“智能系统”(一些科学家甚至说“自我意识”)可以发展自己的智能,而无需模仿与人类相似的思维过程或认知能力,而是发展自己的自主性。

  弱人工智能和强人工智能的分类是机器学习和深度学习之间区别的基础,这两个研究领域属于更广泛的人工智能学科,值得澄清,因为在未来几年我们将听到越来越多的他们。

  经过适当的澄清,我们可以将人工智能定义为机器执行人类智能典型的任务和动作(计划、语言理解、图像和声音识别、问题解决、模式识别等)的能力,区分弱人工智能和强大的人工智能。从技术和方法论的角度来看,人工智能的特点是学习方法/模型,通过这种方法/模型,智能能够胜任一项任务或行动。这些学习模型是机器学习和深度学习的区别。

  它是一组允许软件适应并允许机器学习的方法,以便它们可以在没有预先编程的情况下执行任务或活动,也就是说,没有预先编程的系统来确定信息系统应该如何表现和反应。 . 也就是说,它们是用于“训练”人工智能的系统,以便通过学习、纠正错误、训练自身,它可以自主执行任务/活动。

  因此,机器学习的特点是“学习模型”,正是基于这些模型,我们可以对算法进行分类:

  – 通过教学监督(通过输入和输出示例进行学习,以便 AI 了解它应该如何表现);

  – 没有教学监督(通过结果分析学习:在这种情况下,软件了解如何行动,并且学习模型根据映射软件必须执行的某些行动和任务的结果的输出进行调整);

  – 强化学习(“精英”学习:AI在实现目标、结果、执行动作等时获得奖励)。通过这种方式,他知道哪些行为是对的,哪些是错误的。)

  在这种情况下,我们谈论的是受生物大脑的结构和功能启发的学习模型,因此也是人类思维的启发。如果机器学习可以定义为“训练”人工智能的方法,那么深度学习就是允许模拟人类思维的方法。然而在这种情况下,仅靠数学模型是不够的,深度学习需要专门设计的人工神经网络(深度人工神经网络)和非常强大的计算能力,能够“承受”不同的计算层和分析,这就是发生的事情与人脑的神经连接。这看起来像是一种未来主义的技术水平,但它们实际上是已经用于模式识别的系统.

  到目前为止,我们看到的是人工智能(AI)的技术操作。从智力的角度来看,人工智能的功能主要体现在四个不同的功能层面:

  – 理解:通过模拟数据和事件关联的认知能力,AI能够识别文本、图像、表格、视频、语音和推断信息;

  – 推理:通过逻辑,系统能够连接收集到的多个信息(通过精确的数学算法并以自动化方式);

  – 学习:在这种情况下,我们讨论的是具有特定功能的系统,用于分析数据输入并在输出中“正确”返回(这是机器学习系统的经典示例,它通过自动学习技术导致人工智能学习和执行各种功能);

  – 交互(人机交互):在这种情况下,我们指的是人工智能与人类交互相关的工作方式。这就是 NLP(自然语言处理)系统正在大力发展的地方,这些技术允许人类利用自然语言与机器进行交互(反之亦然)。

  像 Facebook、谷歌、亚马逊、苹果、百度和微软这样的大公司,不仅在努力整合人工智能领域的创新创业公司,而且还在努力启动和培育我们已经看到一些成果的研究项目。(例如 image和人脸识别、语音应用、语言翻译等)。如今,技术的成熟已经让人工智能离开了研究领域,真正进入了日常生活。如果作为消费者,我们可以特别感谢谷歌和 Facebook,那么在商业世界中,技术解决方案的成熟度(和可用性)已经将人工智能的潜力带到了许多领域。

  在谈论人工智能时,人们不能不解决道德和社会方面的问题,例如与工作和就业相关的方面,因为全球社会的恐惧越来越大。

  如果我们考虑到目前一半的工作活动到 2055 年可以实现自动化,那么这些担忧是有道理的。任何类型的工作都可能实现部分自动化,正是基于这种考虑,在报告中的“可行的未来:自动化、就业和生产力,由麦肯锡全球研究所 – MGI 进行,一份 148 页的报告可在达沃斯世界经济论坛网站上获得,该报告于去年 1 月正式发布,估计当前约有一半的劳动力可能因技术而受到自动化的影响已知并在今天使用。

  事实上,为了制止几个月来在网络和社交网络上传播的关于人工智能在“破坏”工作岗位方面的责任的担忧,一些研究已经到来。以下是最重要的:

  根据 Capgemini 题为“将 AI 转化为具体价值:成功实施者的工具包”的研究,83% 的受访公司确认在公司内部设立了新职位,此外,四分之三的受访公司录得 10% 的增长由于实施人工智能而导致的销售;

  波士顿咨询集团和麻省理工学院斯隆管理评论最近的一份报告显示,不到一半的管理人员 (47%) 担心裁员但相信其潜力(85% 的受访者认为这将使公司获得并保持竞争优势) ;

  埃森哲在最近的达沃斯经济论坛上发表的一项新研究(“重塑革命:您准备好在智能技术与人类智慧相结合以创造未来劳动力的竞争中竞争了吗”)估计,到 2020 年,公司收入可能增长 38%,只要他们投资于人工智能和有效的人机合作。

  在科学界和哲学、社会学、政治和经济学专家之间广泛争论的话题之一,是指机器人的思维能力,或者更广泛地说,是指人工智能与“人类”意识之间的界限。

  “人类意识不仅仅是模式识别或快速数字处理,”加州大学洛杉矶分校的神经科学家 Hakwan Lau 认为。“发现如何弥合人类与人工智能之间的鸿沟就像找到圣杯一样。”

  为了解决计算机是否可以发展意识这一有争议的问题,加州大学的研究人员首先试图探索意识是如何在人脑中产生的。在这样做的过程中,他们概述了人类意识的三个关键层次,可以作为设计真正有意识的人工智能的路线图。

  科学家们已经意识到,有些机器人已经达到了相当于人类C2水平的能力,即控制自己的思想和计算的能力;换句话说,自我意识的能力,因为他们可以监控他们在学习解决问题方面的进展。

  迄今为止,研究人员认为人类意识可能来自一组特定的计算。“一旦我们能够在计算方面阐明人类在有意识和无意识之间可能存在的差异,在计算机中对其进行编码可能就不那么困难了”,这是刘研究员的观点,这无疑开辟了关于人类的新场景感知机器人的未来。

  长期以来,经济学家一直在想,要激活哪些工具来防止社会向劳动密集程度越来越低的经济发展——如今人工智能加速了这种经济的发展——导致人口贫困,这种情况考虑到大部分财富将由机器生产,这将需要对财富进行“重新分配”。

  除了社会问题,还有关于人工智能和新技术的发展和演变的伦理问题。一段时间以来,“算法的力量”和大数据一直在争论,许多人想知道它们是否会标志着机器大脑优于人类大脑。当时由斯蒂芬霍金和埃隆马斯克等知名人士在网上引发的恐惧似乎有些过分,但低估人工智能的影响可能是第一大风险。

  第一个警告人工智能风险的是著名的斯蒂芬霍金:“当我们的思想被人工智能放大时,我们无法预测我们将能够做什么,”物理学家在里斯本的上一届网络峰会上说-。也许,有了新工具,我们将能够弥补我们对自然造成的所有损害,也许我们也能够找到解决贫困和疾病的最终解决方案。但是……数以百万计的工作岗位的破坏也有可能会破坏我们的经济和社会。”

  “人工智能可能是我们文明史上最糟糕的事件,”他补充说。它带来了危险,例如强大的自动武器、核武器或生物武器,甚至为少数个人和组织提供了压迫和控制众多人类(和事物)的新方法。我们必须做好管理它的准备,并防止这些潜在风险形成并成为现实。”

  同样令人惊讶的是,最新的警告来自像埃隆马斯克这样的成功商人。“人工智能是我们文明面临的最大风险,”他警告说。特别是,他强调了计算机引发的战争或仅基于人工智能的详细阐述的劳动力灾难的风险,人工智能是未来经济的唯一真正主导支柱,能够为数千甚至数百万储备机器。,仍然由男性管理的工作。返回搜狐,查看更多

下一篇:人工智能有哪些特点
上一篇:人工智能在生活中的应用

咨询我们

输入您的疑问及需求发送邮箱给我们