在浏览器中进行深度学习:TensorFlow.js (三)更多的基本模型


声明:本文转载自https://my.oschina.net/taogang/blog/1797230,转载目的在于传递更多信息,仅供学习交流之用。如有侵权行为,请联系我,我会及时删除。

上一次的博客中,我们介绍了如果实现一个最简单的线性回归的模型,今天我们来看一下,如何利用同样的思路实现更多的模型。

逻辑回归

逻辑回归并非只能实现二分类,我们下面就看一个利用逻辑回归(Multinomial logistic regression)实现多分类的例子。

这个是训练数据:

这个是分类的结果。我们可以看到对某些点,蓝色和橙色,分类效果比较好;而对于绿色和红色的点,分类的结果不是很理想。

代码在这里:

function logistic_regression(train_data, train_label) {     const numIterations = 100;   const learningRate = 0.1;   const optimizer = tf.train.adam(learningRate);   //Caculate how many category do we have   const number_of_labels = Array.from(new Set(train_label)).length;   const number_of_data = train_label.length;      const w = tf.variable(tf.zeros([2,number_of_labels]));   const b = tf.variable(tf.zeros([number_of_labels]));      const train_x = tf.tensor2d(train_data);   const train_y = tf.tensor1d(train_label);      function predict(x) {     return tf.softmax(tf.add(tf.matMul(x, w),b));   }   function loss(predictions, labels) {     const y = tf.oneHot(labels,number_of_labels);     const entropy = tf.mean(tf.sub(tf.scalar(1),tf.sum(tf.mul(y, tf.log(predictions)),1)));     return entropy;   }      for (let iter = 0; iter < numIterations; iter++) {     optimizer.minimize(() => {       const loss_var = loss(predict(train_x), train_y);       loss_var.print();       return loss_var;     })       } }

逻辑回归和之前的线性回归的过程基本类似,有几个要注意的地方:

  • 训练数据
    • train_x是每一个2维矩阵,每一个点数据就是一个由x,y坐标组成的二元数组 [x,y]
    • train_y是每一点的分类,从0开始
  • 预测模型, 对于softmax这个模型,简单说,就是二元逻辑回归向更多元素向量的扩展。有兴趣进一步了解的可以去看下面的这两篇文章:
  • 损失,损失函数用交叉熵,可以参考这篇文章
    • 这里在计算损失的时候,对于lable,调用tf.oneHot()方法,把对Label数据变换为以下形式
      // Labels Tensor     [0, 0, 1, 1, 2, 2]  // OneHot Tensor     [[1, 0, 0],      [1, 0, 0],      [0, 1, 0],      [0, 1, 0],      [0, 0, 1],      [0, 0, 1]]

       

K近邻

K近邻是一个特别简单的算法,简单没有训练的过程。大家在我的另一篇关于机器学习的博客里,可以找到对这个算法的可视化介绍。

利用TensorflowJS也可以实现该算法。下面的代码使用L1距离来实现近邻算法(k=1)

function knn(train_data,train_label) {   const train_x = tf.tensor2d(train_data);      return function(x) {     var result = [];     x.map(function(point){       const input_tensor = tf.tensor1d(point);       const distance = tf.sum(tf.abs(tf.sub(input_tensor, train_x)),1);       const index = tf.argMin(distance, 0);       result.push(train_label[index.dataSync()[0]]);     });     return result;   }; }

参考:机器学习下的各种norm到底是个什么东西?

这个算法算然简单,但是计算量不小,预测的效果似乎也不比逻辑回归差呢。我们注意类似的数据和逻辑回归的差异。

某个数学题

同样的,对于一般的学习问题,TensorflowJS自然是不在话下。参考笔者的另一篇博客:一个利用Tensorflow求解几何问题的例子

代码如下:

function train(train_data) {   const numIterations = 200;   const learningRate = 0.05;   const optimizer = tf.train.sgd(learningRate);      const training_data = tf.tensor2d(train_data);   const center = tf.variable(tf.tensor1d([Math.random()* Math.floor(domain_max),Math.random()* Math.floor(domain_max)]));      // Caculate the distance of this center point to the each point in the training data   const distance = function() {     return tf.pow(tf.sum(tf.pow(tf.sub(training_data, center),tf.scalar(2)),1),tf.scalar(1/2));   }   // Mean Square Error   const loss = function(dis) {     return tf.sum(tf.pow(tf.sub(dis,tf.mean(dis)),tf.scalar(2)));   }   for (let iter = 0; iter < numIterations; iter++) {     var result = {};     optimizer.minimize(() => {       const loss_var = loss(distance());       loss_var.print();       result.loss = loss_var.dataSync();       return loss_var;     })   }   return center; }

运行效果如下:

 

参考

本文发表于2018年04月18日 22:38
(c)注:本文转载自https://my.oschina.net/taogang/blog/1797230,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如有侵权行为,请联系我们,我们会及时删除.

阅读 2821 讨论 0 喜欢 0

抢先体验

扫码体验
趣味小程序
文字表情生成器

闪念胶囊

万稳万当,不如一默。任何一句话,你不说出来便是那句话的主人,你说了出来,便是那句话的奴隶。

你要过得好哇,这样我才能恨你啊,你要是过得不好,我都不知道该恨你还是拥抱你啊。

直抵黄龙府,与诸君痛饮尔。

那时陪伴我的人啊,你们如今在何方。

不出意外的话,我们再也不会见了,祝你前程似锦。

快捷链接
网站地图
提交友链
Copyright © 2016 - 2021 Cion.
All Rights Reserved.
京ICP备2021004668号-1