Regression Loss Function

本文整理了回归任务中常用的一些损失函数及其对比。

均方误差

w:250

均方误差(MSE)是最常用的回归损失函数,计算方法是求预测值与真实值之间距离的平方和,公式如图。

Machine Learning

高中时的笔记,重新发布一下qwq。

可持久化数据结构

What:一种可以保留历史版本的数据结构。

一个具有持久化能力的数据结构在其被修改后可以保存当前的状态,从本质上来说,这样的数据结构是不可改变类型

可持久化数据结构(Persistent data structure)就是利用函数式编程的思想使其支持询问历史版本、同时充分利用它们之间的共同数据来减少时间和空间消耗。

包括可持久化线段树,可持久化字典树,可持久化平衡树,可持久化链表,
可持久化并查集等

数据结构

Splay学习笔记

高中时的笔记,重新发布一下。
图好像都丢了,网上一堆,可以搜一下。
Splay

类别:二叉排序树

空间复杂度:O(n)

时间复杂度:O(log n)内完成插入、查找、删除操作

优点:每次查询会调整树的结构,使被查询频率高的条目更靠近树根。

树的旋转是splay的基础,对于二叉查找树来说,树的旋转不破坏查找树的结构。

数据结构

正如这篇文字的标题一样,不知道该写什么东西,接下来写到哪算哪吧。

自从竞赛失利后,还是想了很多的,先不论比赛公平性怎么样,我们做的东西也就是个玩具罢了,要提高的还有很多。人要学会与自己和解,如果这样转换一下想法:花好多时间做了个大课设,还拿了奖和钱,心里是不是会好受很多?

眼界真的很重要,做一个东西,做到自己认为的最好,可能其实还是在一个比较低的level里的最好,在一个高的level下可能就很naive了。

考研or工作?

一个经典的二择问题,感觉这是有生以来最焦虑的时候了。

杂记

神经网络

神经网络

组成

典型的人工神经网络具有以下三个部分:

结构(Architecture)结构指定了网络中的变量和它们的拓扑关系。例如,神经网络中的变量可以是神经元连接的权重(weights)和神经元的激励值(activities of the neurons)。
激励函数(Activation Rule)大部分神经网络模型具有一个短时间尺度的动力学规则,来定义神经元如何根据其他神经元的活动来改变自己的激励值。一般激励函数依赖于网络中的权重(即该网络的参数)。
学习规则(Learning Rule)学习规则指定了网络中的权重如何随着时间推进而调整。这一般被看做是一种长时间尺度的动力学规则。一般情况下,学习规则依赖于神经元的激励值。它也可能依赖于监督者提供的目标值和当前权重的值。例如,用于手写识别的一个神经网络,有一组输入神经元。输入神经元会被输入图像的数据所激发。在激励值被加权并通过一个函数(由网络的设计者确定)后,这些神经元的激励值被传递到其他神经元。这个过程不断重复,直到输出神经元被激发。最后,输出神经元的激励值决定了识别出来的是哪个字母。
——–Wikipedia

Deep Learning

前言

之前从网上学的,当时记录在了OneNote上,现整理成Markdown文档,发布在这里。

可以看做一个reference doc。

学习笔记