用AI削弱跟单不确定性深挖超兔CRM背后算法

  信息论创始人克劳德·艾尔伍德·香农提出,信息是对不确定性的消除。香农开创了用数学描述信

首页 > ob体育直播平台

用AI削弱跟单不确定性深挖超兔CRM背后算法

发布时间:2022-09-28 08:56:47 来源:ob体育直播app下载 作者:ob体育官方下载

  信息论创始人克劳德·艾尔伍德·香农提出,信息是对不确定性的消除。香农开创了用数学描述信息的先河,让信息变得可测。

  超兔CRM一直致力于研究用AI打单,本质上是用机器学习处理信息,通过算法解析数据,最终帮助销售削弱跟单过程中的不确定性。下面,与您分享一下超兔CRM正在使用的算法。纯干货!两大主题:1.LSTM 详解;2.传统机器学习与深度学习对比。

  神经网络可以当做是能够拟合任意函数的黑盒子,只要训练数据足够,给定特定的x,就能得到希望的y。

  举一个情感分析的例子,输入一句话,判断这句话的的情感是正向的还是负向的。

  其中x就是输入层,如上图有3个输入,比如为 我,喜欢,你。经过隐藏层的计算,输出两个值:正向的概率和负向的概率。(在XTool中的客户意向,会设置三个输出)。

  那么既然普通的神经网络(如上)已经可以完成意向判断的功能,为什么还要循环神经网络呢?

  他们都只能单独的去处理一个个的输入,前一个输入和后一个输入是完全没有关系的。但是,某些任务需要能够更好的处理序列的信息,即前面的输入和后面的输入是有关系的。

  比如,当我们在理解一句话意思时,孤立的理解这句话的每个词是不够的,我们需要处理这些词连接起来的整个序列

  所以为了解决一些这样类似的问题,能够更好的处理序列的信息,就有了RNN:

  但是这样还不完美,为什么呢?上边的举的例子我,喜欢,你只有三个词,但在实际运用中一句话可能会很长,几十个词。

  如果把每个词的信息都记录下来,数据会很大,而且最前边的词对最后边的词的意思可能也没影响。还有就是从算法上,返向求导时,可能会造成梯度消失或梯度爆炸。

  这里简单介绍一下梯度问题:机器学习都是靠梯度来找最优模型的,剃度越小,模型越好。

  为什么梯度会消失或爆炸呢,如果一句话很长,系数很小的线),一直相乘,会越来越接近0,最后消失,如果系数很大,一直相乘结果会越来越大,造成梯度爆炸。

  b) 深度学习不需要对数据处理,会自动学习提取特征,而机器学习需要先对数据进行 格式转化,数据清洗,压缩纬度等操作。

  a) 具有特定规则的数据,使用机器学习比较好。一些简单的场景没必要使用深度学习

  如上,LSTM 详解传统机器学习与深度学习对比,非专业人士理解起来或许还有一定难度。不过,各位老板与管理者不用着急,以上纯干货理论知识,超兔已经将理论逐步落地实践,成为超兔CRM系统中的一部分功能,有「AI潜客意向判断」、「猛犸微助」,更多好功能持续开发中。