AI 技术的核心本质是什么?背后的技术原理有哪些?

        目前的AI大模型本质是,以统计规律代替逻辑规律,以相关性代替因果性,以海量参数的函数拟合出输入输出算法。具体的技术原理:

1是通过数据集获得统计规律,

2是通过统计规律进行插值输出。而其目的,则是通过这种简单粗暴的算法,创造一条信息的自动化生产流水线。(当然这里都说的是目前最流行的机器学习——神经网络这一系的依靠概率统计方法的AI,还有一些小数据集、类人脑结构之类的AI,目前进展困难,不在此列。)它不像很多AI公司和风投资本吹得那么牛逼,更不可能取代人,目前的算法和训练效率都偏低,多数也配不上现在的估值,泡沫很大。

AI搞创作创新是不行的,但在很多工程应用领域,却真的能像实体自动化流水线一样,大规模高质量产出信息产品,比如自动驾驶和机器人控制。但也像流水线一样,在大致相同的原理和算法上,针对每个行业的产品,大模型也需要做针对性的调整和训练,并不能通用。不是什么通用人工智能。目前这个路线,创造像人一样全功能的AI(其实人也要分专业学习训练)不可能也没必要的。

对于正常人类,其实都是通过学习研究案例,习题等现有因果数据,总结出相应的因果规律、公式或算法,也就得到了这个计算函数。而我们做科研,其实也是类似的过程:做实验,获得实验数据,总结其中的规律、方法和公式,然后在其他类似问题中使用这些公式。

AI大模型的初级原理是一样的:AI需要一个巨大的数据集,也就相当于案例。其中包含了大量现成的、经过人类确认为正确的“输入——输出”对应的因果数据。然后通过神经网络之类的算法模型,对这些“输入——输出”关系进行统计和拟合,获得两者之间的对应规律,也就是函数算法本身。与人类不一样的是,AI不会去逐条分析推理因果之间的逻辑性,而只是在统计概率上获取其相关性,也就是所谓“统计规律”而非“逻辑规律”。(但严格来说,学术上一般认为统计概率的关系只能认为是相关性,而非因果性,统计方法接近于归纳法而非演绎法)与人类的另一个不同是,AI是通过一个(组)具有海量参数的庞大拟合函数来表达这个统计规律,而不是人类那样总结为一堆规律、定理、方法等等复杂的规则体系(这种规则体系被称为专家系统)。而这个根据数据集获得海量参数的具体数值的拟合过程,被称为训练。不同的数据集会训练出不同的参数,对应不同的统计规律和输入输出效果。这样的优点是,AI不需要逐个弄清数据集内的真实准确的因果关系,所以效率很高,就像暴力破解一样,只要结果有足够高的准确率,就能够拿来使用。但缺点就是,统计概率得到的拟合函数,只是个输入——输出的黑箱,无法详细解释其内在逻辑,因而其准确性终究达不到百分之百,也缺乏充分的可靠性。通过统计概率获得数据中的统计规律,而非逻辑因果规律,这就是目前的AI大模型的核心算法。


小溪畅流

软件定制开发

小程序定制开发

客户管理系统

相关文章