Susannalsy nan.xiao 请问做出来的每个标签的概率是什么意思?我看到它单个标签其实分对了,为什么概率也是0.3左右,而且也不一定,这个单个标签的概率怎么理解他的意思? 比如: truth.r truth.t truth.w prob.r prob.t prob.w response.r response.t response.w FALSE FALSE TRUE 0.15 0.524 0.494 FALSE TRUE FALSE FALSE FALSE TRUE 0.334 0.41 0.672 FALSE FALSE TRUE TRUE TRUE FALSE 0.714 0.186 0.284 TRUE FALSE FALSE nan.xiao
Susannalsy tctcab 您这个代码意思是:把tr转换为预测数据相对应的标签,消掉了tr这个类别,把它融为只有t和r,然后计算新的t、r混淆矩阵,是吧?(看了半天,狗头保命) 但我感觉这么一折腾,干脆把tr按照第三种类别来分,就是最后计算混淆矩阵的时候,做个转换就行,这真的感觉像虚假的多分类,我再看看楼下给的链接😂
nan.xiao 都是框架,所以没什么本质区别。如果有的话,那么 MLR 的设计更多地直接对标了 scikit-learn,在 API 的设计上更灵活,更好地支持了类似于以上多标签这种回归和分类以外的特殊问题。 可能是因为出现较早的缘故,caret 在以上方面有所局限。当然,他们后来又自己另立山头搞了一套 tidymodels。
Susannalsy Susannalsy 我懂了,这个概率的意思就是单纯的算法认为这个东西是什么的概率,不论预测对了还是错了,刚在看mlr3包的书,书中举了这个例子,茅塞顿开。 row_id truth response prob.M prob.R 1: 9 R R 0.04651 0.9535 2: 11 R R 0.04651 0.9535 3: 15 R R 0.15385 0.8462 4: 19 R R 0.15385 0.8462 5: 21 R M 0.89474 0.1053 6: 27 R R 0.04651 0.9535 比如,第一行,算法预测对了,就是R类型,它认为是R的概率是0.95,很高的概率确信它是R,而不是M,这个很好理解;看第5行,算法预测错了,算法预测是M,但其实是R,这里给出觉得是M的概率是0.89,很高,所以答案是M。 因此,就是简单解释算法为什么给出这个结果的概率大小。所以,多标签想必道理是类似的,它的概率虽然很低,但是它结果是对的,只是说有较小的概率认为它是这个,能理解吗,意会一下
CMCai0104 Susannalsy 算法根据模型预测该object属于某一个类别的概率是多少,通过根据属于各个类别的概率判断属于哪个类别,这与它真实属于哪个类别没有关系。然后根据预测情况与真实情况的差异判断该模型的好与坏,类似统计假设检验中的第一类、第二类错误。