人工智能的原理是什么?

人工智能的原理可以简单描述为:

人工智能=数学计算。

机器的智能取决于“算法”。最初发现1和0可以用电路的开和关来表示。然后很多电路组织在一起,不同的排列可以代表很多东西,比如颜色,形状,字母。与逻辑元件(三极管)一起形成“输入(按下开关按钮)-计算(电流通过线路)-输出(灯亮)”

这个模型。

想象一下家里有一个双控开关。

为了实现更复杂的计算,它最终变成了“大规模集成电路”——芯片。

电路的逻辑经过层层嵌套封装后,我们改变当前状态的方法就变成了“编程语言”。程序员就是这么干的。

程序员告诉计算机如何执行,整个过程由程序固定下来。

因此,为了让计算机执行某项任务,程序员必须首先充分了解该任务的流程。

以电梯为例:

别小看这个电梯,它也挺“聪明”的。想想它需要做哪些判断:上下方向、是否满员、高峰时段、停靠时间是否足够、单双楼层等。你需要提前想好所有的可能性,不然会出bug。

某种程度上,程序员控制着世界。但总是事必躬亲。程序员太累了。你看他们加班都红了眼。

于是我想:计算机可以自己学习,自己解决问题吗?而我们只需要告诉它一套学习方法。

你还记得1997年,IBM用一台特别设计的计算机赢得了国际象棋冠军。其实它的方法很蠢——暴力计算,术语是“穷举”(其实IBM为了节省计算能力,人为地为它修剪了很多不必要的计算,比如那些明显的蠢棋,优化了卡斯帕罗夫的风格)。计算机计算出每一步棋的所有走法,然后对比人类的博弈棋谱,寻找最优解。

一句话:努力创造奇迹!

但是到了要走的时候,不能再这么穷了。权力再大,也是有限度的。下围棋的可能性远远超过宇宙中所有原子的总和(已知),即使使用目前最好的超级计算机,也要几万年。在量子计算机成熟之前,电子计算机几乎是不可能的。

于是,程序员给阿尔法狗加了一层额外的算法:

A.先算:哪里算哪里忽略。

b、然后,有针对性的计算。

——本质上还是计算。没有“感知”!

在步骤A中,它应该如何判断“在哪里计算”?

这就是“人工智能”的核心问题:“学习”的过程。

仔细想想,人类是怎么学习的?

人类所有的认知都来自于对观察到的现象进行总结,并根据总结的规律对未来进行预测。

当你见过一种四条腿、短毛、中等身材、长嘴巴、会叫的动物,你会把未来看到的所有类似的物体都归为狗。

然而,机器的学习方式与人类有着质的不同:

通过观察一些特征,人们可以推断出大多数未知数。取一个角,然后转过来。

机器必须观察很多条狗才能知道这一条是不是狗。

这样一台愚蠢的机器有望统治人类。

简直就是蛮力!努力生活。

具体来说,它的“学习”算法叫做“神经网络”(比较唬人)。

(特征提取器,总结对象的特征,然后将特征放入池中进行整合,并充分连接神经网络输出最终结论)

它需要两个先决条件:

1,吃大量数据试错,逐步调整自己的准确度;

2.神经网络层数越多,计算越精确(有极限),需要的计算能力就越大。

所以,虽然神经网络的方法在很多年前就存在了(那时候还叫“感知器”)。但受限于数据量和计算能力,一直没有发展起来。

神经网络听起来比感知器好。不知道高端在哪!这再一次告诉我们,有一个好听的研究(庄)和研究(毕)的名字是多么重要!

现在,这两个条件都满足了——大数据和云计算。谁拥有数据,谁就能做AI。

目前人工智能常见的应用领域:

图像识别(安全识别、指纹、美颜、图片搜索、医学图像诊断)使用“卷积神经网络(CNN)”,主要提取空间维度的特征来识别图像。

自然语言处理(人机对话、翻译)使用“RNN”,主要提取时间维度的特征。因为有语序,所以词出现的时间决定了语义。

神经网络算法的设计水平决定了其描述现实的能力。顶级大牛吴恩达曾经设计的卷积层数高达100层(层数过多容易出现过拟合问题)。

当我们深刻理解了计算的意义:有明确的数学规律。所以,

世界具有量子(随机)特性,这决定了计算机的理论局限性。事实上,计算机甚至不能生成真正的随机数。

这台机器仍然很笨拙。

更多人工智能神佑知识,想了解可以私信询问。