Welcome 微信登录

首页 / 软件开发 / 数据结构与算法

计算字符串相似度的简易算法

计算字符串相似度的简易算法

计算字符串相似度的简易算法2011-08-24 BlogJava Jack.Wang算法设计背景:最近设计知识管理系统的资源导入功能,为了尽量的做到组件化,方便扩展,方便其他模块使用。简 化组件提供的和需要的接口,设计并实现了基于 Mapping 机制的导入框架。其中有一功能用到了计算两 个字符串相似度的算法,简单设计如下以便参考:设计思想:把两个字符串变成相同的基本操作定义如下:1.修改一个字符(如把 a 变成 b)2.增加一个字符 (如 abed 变成...
人工神经网络(Artificial Neural Netwroks)笔记-delta规则增量学习

人工神经网络(Artificial Neural Netwroks)笔记-delta规则增量学习

人工神经网络(Artificial Neural Netwroks)笔记-delta规则增量学习2011-08-24 博客园 T.t.T!Ck.¢#delta规则增量学习Wij(t+1)=Wij(t)+α(Yj-Aj(t))Oi(t)式中 Wij(t+1)、Wij(t) 分别表示神经元ANi到ANj的联接在时刻t+1和时刻t的强度,Oi(t)为ANi神经 元在时刻t的输出,Yj为神经元ANj的理想输出,Aj(t)为神经元ANj的激活状态,&al...
人工神经网络(Artificial Neural Netwroks)笔记-基本BP算法

人工神经网络(Artificial Neural Netwroks)笔记-基本BP算法

人工神经网络(Artificial Neural Netwroks)笔记-基本BP算法2011-08-24 博客园 T.t.T!Ck.¢#单层的感知器并不能解决XOR问题人工神经网络(Artificial Neural Netwroks)也因为这个问题而陷入了低潮,但是后来提出的多层感 知器却让人工神经网络(Artificial Neural Netwroks)再一次high起来BP网络是最为广泛的一种。具体的原理介绍可以通过网络得到这里只描述算法流程基本...
人工神经网络(Artificial Neural Netwroks)笔记-基本的非确定性统计训练算法

人工神经网络(Artificial Neural Netwroks)笔记-基本的非确定性统计训练算法

人工神经网络(Artificial Neural Netwroks)笔记-基本的非确定性统计训练算法2011-08-24 博客园 T.t.T!Ck.¢#在上一篇文章 《人工神经网络(Artificial Neural Netwroks)笔记-消除样本顺序的BP算法 》中 修 改权重的方法被称为"最速下降法"。每一次权重的修改都是确定的,权重都会被修改。甚至到最简单的 单层感知器也是如此。但是我们有一个疑问,是否每一次的权重修改都是好的呢...
人工神经网络(Artificial Neural Netwroks)笔记-消除样本顺序的BP算法

人工神经网络(Artificial Neural Netwroks)笔记-消除样本顺序的BP算法

人工神经网络(Artificial Neural Netwroks)笔记-消除样本顺序的BP算法2011-08-24 博客园 T.t.T!Ck.¢#上文中已经提到“基础BP算法“偏爱”较后出现的样本,因此较后出现的样本对网络影响较大”本文将记录如何消除这个影响用(X1,Y1),(X2,Y2),....(Xs,Ys)的总效果丢该 W^(1),W^(2),...W^(L)△W^(K)ij=∑△pW^(k)...
人工神经网络(Artificial Neural Netwroks)笔记-离散单输出感知器算法

人工神经网络(Artificial Neural Netwroks)笔记-离散单输出感知器算法

人工神经网络(Artificial Neural Netwroks)笔记-离散单输出感知器算法2011-08-24 博客园 T.t.T!Ck.¢#最近在重新学习人工神经网络(Artificial Neural Netwroks),做做笔记,整理思路离散单输出感知器算法,传说中的MP二值网络:自变量及其函数的值、向量分量的值只取0和1函数、向量权向量:W=(w1,w2,w3.....wn)输入向量:X=(x1,x2,x3.....xn)训练样本集{(X,Y)...
人工神经网络(Artificial Neural Netwroks)笔记-连续多输出感知器算法

人工神经网络(Artificial Neural Netwroks)笔记-连续多输出感知器算法

人工神经网络(Artificial Neural Netwroks)笔记-连续多输出感知器算法2011-08-24 博客园 T.t.T!Ck.¢#人工神经网络(Artificial Neural Netwroks)笔记--离散多输出感知器训练算法 中的2.1.3步是多 个判断,因此我们说它是一种离散多输出感知器现在采用公式 Wij=Wij+α(Yj-Oj)Xi取代了那个步骤Yj和Oj之间的差别对Wij的影响由α(Yj-Oj)Xi表...
人工神经网络(Artificial Neural Netwroks)笔记--离散多输出感知器训练算法

人工神经网络(Artificial Neural Netwroks)笔记--离散多输出感知器训练算法

人工神经网络(Artificial Neural Netwroks)笔记--离散多输出感知器训练算法2011-08-24 博客园 T.t.T!Ck.¢#这是对离散单输出感知器算法的扩展相关的符号定义请参考 《人工神经网络(Artificial Neural Netwroks)笔记-离散单输出感知器算法 》OK,Start Our Game1.初始化权重矩阵W;2.重复下列过程,直到训练完成:2.1对每个样本(X,Y),重复如下过程:2.1.1 输入X;2....
人工神经网络笔记-径向基函数(Radial Basis Function- RBF)

人工神经网络笔记-径向基函数(Radial Basis Function- RBF)

人工神经网络笔记-径向基函数(Radial Basis Function- RBF)2011-08-24 博客园 T.t.T!Ck.¢#RBF 网络起源于数值分析中的多变量插值的径向基函数方法,其所具有的最佳逼近特性是传统BP 网 络所不具备的。三层的RBF 网络具有可以逼近任意函数的能力。假设网络中的输入节点隐层节点输出节点数分别为N,L,M 。隐含层的作用是对输入模式进行变换将低 维的模式输入数据转换到高维空间内以利于输出层进行分类识别。最常用的径向基...
人工神经网络笔记-粒子群优化(Partical Swarm Optimization - PSO)

人工神经网络笔记-粒子群优化(Partical Swarm Optimization - PSO)

人工神经网络笔记-粒子群优化(Partical Swarm Optimization - PSO)2011-08-24 博客园 T.t.T!Ck.¢#关于粒子群优化的内容可以通过搜索得到。下面主要是个人对于粒子群优化的一点理解,以及应用于BP神经网络中做权重的调整原文在:http://baike.baidu.com/view/1531379.htm引用下面一些内容===============我是引用的分界线=================粒子根据如下的...
控制随机抽中几率[ C# | Random ]

控制随机抽中几率[ C# | Random ]

控制随机抽中几率[ C# | Random ]2011-08-24 博客园 农民伯伯前言关于这个算法也许(肯定)已经被发明,但是我、我身边的朋友、我的老师在这之前是不知道也没能想出来的,如果你不知道的话,那么也包括你了: ) 在这个范围内被首次提出应该算是“发明”的!!增加、减少随机抽中几率——我的好朋友狄鹏在三年前想到的一个算法,我现在拿出来发扬光大。此算法可用于题库随机抽题、赌博机控制出彩率,甚至俄罗斯方...
人工神经网络入门(1) —— 单层人工神经网络应用示例

人工神经网络入门(1) —— 单层人工神经网络应用示例

人工神经网络入门(1) —— 单层人工神经网络应用示例2011-08-24 博客园 逖靖寒1 介绍还记得在2年前刚刚接触RoboCup的时候,从学长口中听说了ANN(人工神经网络),这个东西可神奇 了,他能通过学会从而对一些问题进行足够好处理。就像咱们人一样,可以通过学习,了解新的知识。但是2年了,一直想学习ANN,但是一直没有成功。原因很多,其中主要的原因是咱们国内的教程中关 于这个技术的介绍过于理论化,以至于我们基础差和自学者望而却步。现在,我希望通过...
人工神经网络入门(2) —— 人工神经基本概念介绍

人工神经网络入门(2) —— 人工神经基本概念介绍

人工神经网络入门(2) —— 人工神经基本概念介绍2011-08-24 博客园 逖靖寒1 介绍在上一篇文章中,我们已经看到了一个简单的关于ANN实际应用程序,这篇文章中,我将简单地介绍 一下ANN的最最基础的知识以及上一篇文章中的程序原理的说明。2 ANN的最最基础的知识ANN算法起源于生物体的神经系统,相信大家对生物神经系统的工作方式都非常了解,这里我也就不 详细介绍了,不过,为了后续说明的方便,给大家上一个截图:图1根据生物神经系统的工作过程,我们可以...
人工神经网络入门(3) —— 多层人工神经网络应用示例

人工神经网络入门(3) —— 多层人工神经网络应用示例

人工神经网络入门(3) —— 多层人工神经网络应用示例2011-08-24 博客园 逖靖寒1 介绍求异或(XOR)操作是计算机中常用到的一种计算:0 XOR 0 = 00 XOR 1 = 11 XOR 0 = 11 XOR 1 = 0我们可以使用第一篇文章中的代码来计算这个结果http://files.cnblogs.com/gpcuster/ANN1.rar( 需要修改其中的训练集),可以发现学习后的结果不能让我们满意,原因是单层神经网络学习能力有限 ,...
人工神经网络入门(4) —— AForge.Net简介

人工神经网络入门(4) —— AForge.Net简介

人工神经网络入门(4) —— AForge.Net简介2011-08-24 博客园 逖靖寒1 介绍这篇文章中,我们将介绍一个用C#实现的框架AForge,利用这个框架,您可以方便地操作人工网络, 计算机视觉,机器学习,图像处理,遗传算法等2 神经网络设计部分框架介绍在这里,我要强调:这段代码写的非常漂亮,一种代码如诗的美感,让我神往。这段代码位于AForge.Neuro名字空间中。这个库文件由6个主要部分组成:Neuron - 所有神经元(neurons...
粒子群算法(1)----粒子群算法简介

粒子群算法(1)----粒子群算法简介

粒子群算法(1)----粒子群算法简介2011-09-01 csdn博客 niuyongjie一、粒子群算法的历史粒子群算法源于复杂适应系统(Complex Adaptive System,CAS)。CAS理论于1994年正式提出,CAS中的成员称为主体。比如研究鸟群系统,每个鸟在这个系统中就称为主体。主体有适应性,它能够与环境及其他的主体进行交流,并且根据交流的过程“学习”或“积累经验”改变自身结构与行为。...
粒子群算法(2)----标准的粒子群算法

粒子群算法(2)----标准的粒子群算法

粒子群算法(2)----标准的粒子群算法2011-09-01 csdn博客 niuyongjie在上一节的叙述中,唯一没有给大家介绍的就是函数的这些随机的点(粒子)是如何运动的,只是说按照一定的公式更新。这个公式就是粒子群算法中的位置速度更新公式。下面就介绍这个公式是什么。在上一节中我们求取函数y=1-cos(3*x)*exp(-x)的在[0,4]最大值。并在[0,4]之间放置了两个随机的点,这些点的坐标假设为x1=1.5; x2=2.5;这里的点是一个标...
粒子群算法(3)----标准的粒子群算法(局部版本)

粒子群算法(3)----标准的粒子群算法(局部版本)

粒子群算法(3)----标准的粒子群算法(局部版本)2011-09-01 csdn博客 niuyongjie在全局版的标准粒子群算法中,每个粒子的速度的更新是根据两个因素来变化的,这两个因素是:1. 粒子自己历史最优值pi。2. 粒子群体的全局最优值pg。如果改变粒子速度更新公式,让每个粒子的速度的更新根据以下两个因素更新,A. 粒子自己历史最优值pi。B. 粒子邻域内粒子的最优值pnk。其余保持跟全局版的标准粒子群算法一样,这个算法就变为局部版的粒子群算...
粒子群算法(4)----粒子群算法分类

粒子群算法(4)----粒子群算法分类

粒子群算法(4)----粒子群算法分类2011-09-01 csdn博客 niuyongjie粒子群算法主要分为4个大的分支:(1)标准粒子群算法的变形在这个分支中,主要是对标准粒子群算法的惯性因子、收敛因子(约束因子)、“认知”部分的c1,“社会”部分的c2进行变化与调节,希望获得好的效果。惯性因子的原始版本是保持不变的,后来有人提出随着算法迭代的进行,惯性因子需要逐渐减小的思想。算法开始阶段,大的惯性因子...
粒子群算法(5)-----标准粒子群算法的实现

粒子群算法(5)-----标准粒子群算法的实现

粒子群算法(5)-----标准粒子群算法的实现2011-09-01 csdn博客 niuyongjie标准粒子群算法的实现思想基本按照粒子群算法(2)----标准的粒子群算法的讲述实现。主要分为3个函数。第一个函数为粒子群初始化函数InitSwarm(SwarmSize......AdaptFunc)其主要作用是初始化粒子群的粒子,并设定粒子的速度、位置在一定的范围内。本函数所采用的数据结构如下所示:表ParSwarm记录的是粒子的位置、速度与当前的适应度...
<< 181 182 183 184 185 186 187 188 189 190 >>