在上一次的博客中,我们介绍了如果实现一个最简单的线性回归的模型,今天我们来看一下,如何利用同样的思路实现更多的模型。
   逻辑回归
  逻辑回归并非只能实现二分类,我们下面就看一个利用逻辑回归(Multinomial logistic regression)实现多分类的例子。
  这个是训练数据:
  
  这个是分类的结果。我们可以看到对某些点,蓝色和橙色,分类效果比较好;而对于绿色和红色的点,分类的结果不是很理想。
  
  代码在这里:
  function logistic_regression(train_data, train_label) {     const numIterations = 100;   const learningRate = 0.1;   const optimizer = tf.train.adam(learningRate);   //Caculate how many category do we have   const number_of_labels = Array.from(new Set(train_label)).length;   const number_of_data = train_label.length;      const w = tf.variable(tf.zeros([2,number_of_labels]));   const b = tf.variable(tf.zeros([number_of_labels]));      const train_x = tf.tensor2d(train_data);   const train_y = tf.tensor1d(train_label);      function predict(x) {     return tf.softmax(tf.add(tf.matMul(x, w),b));   }   function loss(predictions, labels) {     const y = tf.oneHot(labels,number_of_labels);     const entropy = tf.mean(tf.sub(tf.scalar(1),tf.sum(tf.mul(y, tf.log(predictions)),1)));     return entropy;   }      for (let iter = 0; iter < numIterations; iter++) {     optimizer.minimize(() => {       const loss_var = loss(predict(train_x), train_y);       loss_var.print();       return loss_var;     })       } }
  逻辑回归和之前的线性回归的过程基本类似,有几个要注意的地方:
     - 训练数据         - train_x是每一个2维矩阵,每一个点数据就是一个由x,y坐标组成的二元数组 [x,y]
- train_y是每一点的分类,从0开始
 
- 预测模型, 对于softmax这个模型,简单说,就是二元逻辑回归向更多元素向量的扩展。有兴趣进一步了解的可以去看下面的这两篇文章:
   
- 损失,损失函数用交叉熵,可以参考这篇文章。
        - 这里在计算损失的时候,对于lable,调用tf.oneHot()方法,把对Label数据变换为以下形式 // Labels Tensor     [0, 0, 1, 1, 2, 2]  // OneHot Tensor     [[1, 0, 0],      [1, 0, 0],      [0, 1, 0],      [0, 1, 0],      [0, 0, 1],      [0, 0, 1]]
   
 
K近邻
  K近邻是一个特别简单的算法,简单没有训练的过程。大家在我的另一篇关于机器学习的博客里,可以找到对这个算法的可视化介绍。
  利用TensorflowJS也可以实现该算法。下面的代码使用L1距离来实现近邻算法(k=1)
  function knn(train_data,train_label) {   const train_x = tf.tensor2d(train_data);      return function(x) {     var result = [];     x.map(function(point){       const input_tensor = tf.tensor1d(point);       const distance = tf.sum(tf.abs(tf.sub(input_tensor, train_x)),1);       const index = tf.argMin(distance, 0);       result.push(train_label[index.dataSync()[0]]);     });     return result;   }; }
  参考:机器学习下的各种norm到底是个什么东西?
  这个算法算然简单,但是计算量不小,预测的效果似乎也不比逻辑回归差呢。我们注意类似的数据和逻辑回归的差异。
  
   某个数学题
  同样的,对于一般的学习问题,TensorflowJS自然是不在话下。参考笔者的另一篇博客:一个利用Tensorflow求解几何问题的例子。
  代码如下:
  function train(train_data) {   const numIterations = 200;   const learningRate = 0.05;   const optimizer = tf.train.sgd(learningRate);      const training_data = tf.tensor2d(train_data);   const center = tf.variable(tf.tensor1d([Math.random()* Math.floor(domain_max),Math.random()* Math.floor(domain_max)]));      // Caculate the distance of this center point to the each point in the training data   const distance = function() {     return tf.pow(tf.sum(tf.pow(tf.sub(training_data, center),tf.scalar(2)),1),tf.scalar(1/2));   }   // Mean Square Error   const loss = function(dis) {     return tf.sum(tf.pow(tf.sub(dis,tf.mean(dis)),tf.scalar(2)));   }   for (let iter = 0; iter < numIterations; iter++) {     var result = {};     optimizer.minimize(() => {       const loss_var = loss(distance());       loss_var.print();       result.loss = loss_var.dataSync();       return loss_var;     })   }   return center; }
  运行效果如下:
  
   
   参考