[leetcode]第十二部分

68-Text Justification

问题描述

给定一个单词的数组和一个宽度值maxWidth,将文本格式化,使得每一行有正好maxWidth个字符,并且两边对齐.

使用贪心算法进行打包,也就是说:在每一行打包尽可能多的单词.在必要的时候可以使用' '进行填充,使得每一行正好有maxWidth个字符.

单词之间的空格应该尽可能分布均匀.如果一行中的空格数目无法均匀分布在单词之间,左边的空格应该要分配更多的空间.

对于文本的最后一行,应该向左对齐并且在单词之间

继续阅读

[paper阅读] 度量分解: 矩阵分解之下的推荐(三)

实验

由于评分预测和物品排序一般都是使用不同的评估标准分别研究的, 因此, 作者分别在这两个任务上进行了探究. 设计本实验来验证提出方法主要是为了回答以下三个研究问题:

  • 在物品排序中, FML是否优于神经网络和度量学习?
    -相较于基于MF以及基于神经网络的模型, FML能否实现更精确的评分预测?
    超参如何影响模型的性能?

物品排序的评估

数据集描述

继续阅读

[paper阅读] 度量分解: 矩阵分解之下的推荐(二)

背景

推荐中的矩阵分解

矩阵分解是物品推荐中最有效的技术之一. 矩阵分解用于推荐系统的第一个版本是Simon Funk等人Netflix比赛的评分任务. 之后的研究改进了矩阵分解, 并且提供了很多变种. 例如, Koren等人引入了用户和物品偏置来对针对用户和物品特定的特征进行建模(详情见参考资料4

继续阅读

[paper阅读] 度量分解: 矩阵分解之下的推荐(一)

摘要

过去的十几年时间里, 有许多研究都调研过矩阵分解技术, 它已经成为个性化推荐中最受欢迎的技术之一. 但是, 基于矩阵分解的推荐模型中采用的点积无法满足不等式性质, 可能会限制它们的可表达性, 得到次佳的方案. 为了解决这个问题, 作者们提出了一个新颖的推荐技术. 假设用户和物品可以放到低维空间, 并且可以使用满足不等式性质的欧氏距离来度量它们之间的距离. 为了验证其效果, 作者们进一步设计了两种模型的变式: 一个用于预测评分,

继续阅读