ML-逻辑回归

输入x希望输出y=1的可能性最大 通过sigmod输出映射到0,1,其中0.5为分界线 逻辑回归,使用sigmod为激活函数的神经网络 Evaluating the cost function can be thought of as forward propagation and computing derivatives can be thought of as backpropagation. sigmod中权重越高,越自信,就是轻微的输入变化带来截然不同的结果 偏差的不同呢是的决策边界发生变化,就是说分界点改变了。 least squares不再适用(回归函数经过sigmoid,不再是Convex functions,即凸函数) Convex functions have the useful property that any local minimum is also a global minimum 第一幅为Convex functions,第二幅为非 Convex functions,后者的局部最小值不一定是全局最小值 logistic regression 使用 cross-entropy loss,这是它的凸函数 横轴预测值,竖轴损失:预测错误损失趋向无穷,预测正确损失为0 由最大似然 推出 交叉熵损失, 最大似然,思想是通过选择模型参数,使得 观测到的数据出现的概率最大。 ...

November 14, 2025 · 4 min · 834 words · Bob