使用 Python 和 NumPy 为神经网络创建简单高效的遗传算法

wufei123 2025-01-05 阅读:6 评论:0
这是有关 ml 进化算法课程的第一篇文章。 当你知道神经网络的参数,但不知道输出应该是什么时,就需要遗传算法,例如,这个算法可以用来玩 google dinosaur 或 flappy bird,因为你不知道输出应该是什么,但您有能力对...

使用 python 和 numpy 为神经网络创建简单高效的遗传算法

这是有关 ml 进化算法课程的第一篇文章。

当你知道神经网络的参数,但不知道输出应该是什么时,就需要遗传算法,例如,这个算法可以用来玩 google dinosaur 或 flappy bird,因为你不知道输出应该是什么,但您有能力对最可行的选项进行排序,例如按时间,这称为适应度函数。

我一直没能找到这样一个有效、简单且可用的算法,所以我开始创建自己的轻量级、简单、完美运行的遗传算法。

我的目的不是拖拖拉拉地写这篇文章,也不是用它的篇幅来折磨读者,所以我们直接上代码吧。正如已经提到的,代码很简单,所以大部分内容不需要在整篇文章中描述。

首先我们需要导入模块:

import numpy as np
import random

然后我们添加dataset及其答案,但不使用反向传播算法,而只是统计正确答案的数量。然后你可以在其他变体上进行测试,这些变体现在已被注释掉

x = np.array([[1, 1, 0], [0, 0, 1], [1, 0, 1], [0, 0, 0], [1, 0, 0], [0, 1, 0], [1, 1, 0], [0, 1, 1], [1, 1, 1]])
y = np.array([[0],[1],[1], [0], [0], [0], [0], [1], [1]])

#x = np.array([[0, 1, 1], [0, 0, 1], [1, 0, 1], [0, 1, 0], [1, 0, 0], [1, 1, 0], [0, 0, 0], [1, 1, 0], [1, 1, 1]])
#y = np.array([[1],[0], [0], [1], [0], [1], [0], [1], [1]])

#x = np.array([[1, 1, 0], [0, 0, 1], [1, 0, 1], [0, 1, 0], [1, 0, 0], [0, 0, 0], [1, 1, 0], [0, 1, 1], [1, 1, 1]])
#y = np.array([[1],[0],[1], [0], [1], [0], [1], [0], [1]])

添加列表和激活函数。这些列表的含义稍后将会变得清晰。第一个激活函数是 sigmoid,第二个是阈值。

listnet = []
newnet = []
goodnet = []
goodnet0 = []
goodnet1 = []
goodnet2 = []
goodnet3 = []
goodnet4 = []
goodnet5 = []
goodnet6 = []
good = 0
epoch = 0

good = 0
epoch = 0

def sigmoid(x):
    return 1/(1 + np.exp(-x)) 
def finfunc(x):
    if x[0] >= 0.5:
        x[0] = 1
        return x[0]

    else:
        x[0] = 0
        return x[0]

接下来,我们需要创建两个类,第一个类用于创建初始群体,第二个类用于所有后续群体,因为第一次我们需要随机创建权重,然后仅交叉和使它们变异。 init() 函数用于创建或添加权重,predict() 是算法本身和计算最佳选项所必需的,fredict() 函数的不同之处在于它返回答案和适应度函数来显示数字在屏幕上查看训练阶段。在输出层,首先使用 sigmoid 函数使答案更接近其中一个选项,然后才使用阈值函数。

class network():
    def __init__(self):
        self.h1 = np.random.randn(3, 6)
        self.o1 = np.random.randn(6, 1)

    def predict(self, x, y):
        t1 = x @ self.h1
        t1 = sigmoid(t1)
        t2 = t1 @ self.o1
        t2 = sigmoid(t2)
        t2 = finfunc(t2)
        if t2 == y[0]:
            global good
            good += 1

    def fpredict(self, x, y):
        t1 = x @ self.h1
        t1 = sigmoid(t1)
        t2 = t1 @ self.o1
        t2 = sigmoid(t2)
        t2 = finfunc(t2)
        if t2 == y[0]:
            global good
            good += 1
        return t2, good
class network1():
    def __init__(self, h1, o1):
        self.h1 = h1
        self.o1 = o1


    def predict(self, x, y):
        t1 = x @ self.h1
        t1 = sigmoid(t1)
        t2 = t1 @ self.o1
        t2 = sigmoid(t2)
        t2 = finfunc(t2)
        if t2 == y[0]:
            global good
            good += 1
    def fpredict(self, x, y):
        t1 = x @ self.h1
        t1 = sigmoid(t1)
        t2 = t1 @ self.o1
        t2 = sigmoid(t2)
        t2 = finfunc(t2)
        if t2 == y[0]:
            global good
            good += 1
        return t2, good

我们输出第一个答案和变量good,这是这里的适应度函数,然后我们为下一个神经网络重置它,打印“wait0”(你可以在这里写任何你想要的东西)是必要的,以免对不同神经网络的答案从哪里开始感到困惑。

s = network()
print(s.fpredict(x[0], y[0]))
print(s.fpredict(x[1], y[1]))
print(s.fpredict(x[2], y[2]))
print(s.fpredict(x[3], y[3]))
print("wait0")
good = 0

第一个周期过去了,在这里以及随后的所有周期中,我们只给出了六个问题来检查它如何处理任务,而它还没有满足,也就是说,我们检查它是否临时抱佛脚,这种情况有时会发生。现在让我们更详细地讨论一下:根据它正确回答了多少个答案,我们将其分配给其中一个类,如果大量答案是正确的,那么我们必须支持这样的神经网络并增加其数量,以便随着随后的变异将会出现更多更聪明的人,要理解这一点,你可以想象100个人中有一个天才,但这对于每个人来说是不够的,这意味着他的天才将在下一代中消失,这意味着神经网络要么学习速度非常慢,要么根本不存在,为了避免这种情况,我们增加了循环中具有大量正确答案的神经网络的数量。最后,我们清空主 listnet 列表,按照从最好到最差的顺序为其分配 goodnet 列表的新值,筛选出 100 个最佳个体,用于后续突变。

for s in range (1000):
    s = network()
    good = 0
    s.predict(x[0], y[0])
    s.predict(x[1], y[1])
    s.predict(x[2], y[2])
    s.predict(x[3], y[3])
    s.predict(x[4], y[4])
    s.predict(x[5], y[5])
    if good == 6:
        goodnet6.append(s)
        for r in range(15):
            goodnet4.append(s)
    elif good == 5:
        goodnet5.append(s)
        for r in range(10):
            goodnet4.append(s)
    elif good == 4:
        goodnet4.append(s)
        for r in range(5):
            goodnet4.append(s)
    elif good == 3:
        goodnet3.append(s)
    elif good == 2:
        goodnet2.append(s)
    elif good == 1:
        goodnet1.append(s)
    elif good == 0:
        goodnet0.append(s)
    good = 0
listnet = []
listnet.extend(goodnet6)
listnet.extend(goodnet5)
listnet.extend(goodnet4)
listnet.extend(goodnet3)
listnet.extend(goodnet2)
listnet.extend(goodnet1)
goodnet1 = []
goodnet2 = []
goodnet3 = []
goodnet4 = []
goodnet5 = []
goodnet6 = []
goodnet = listnet[:100]
listnet = goodnet
goodnet = []

交叉和变异本身:我们从第一个亲本中取出一部分,从第二个中取出第二部分,进行变异,然后我们在 newnet 列表中得到一个孩子,所以 1000 次。

for g in range(1000):
    parent1 = random.choice(listnet)
    parent2 = random.choice(listnet)
    ch1h = np.vstack((parent1.h1[:1], parent2.h1[1:])) * random.uniform(-0.2, 0.2)
    ch1o = parent1.o1 * random.uniform(-0.2, 0.2)
    g = network1(ch1h, ch1o)
    newnet.append(g)
listnet = newnet
newnet = []

从代码的前一部分开始,我们使用 network1(),因为我们现在是交叉和变异,而不是随机创建。所以我们需要重复 1000 次(这是一个超参数,所以你可以自己选择 epoch 的数量,15 对我来说就足够了),我们在第一个 epoch 上显示答案,第 1000 个是最终版本(如果你有,例如,20,然后指定 20)。这里代码是重复的,所以我就不描述了,一切都很清楚了。

for i in range(1000):
    good = 0
    epoch += 1
    for s in listNet:
      good = 0
      s.predict(x[0], y[0])
      s.predict(x[1], y[1])
      s.predict(x[2], y[2])
      s.predict(x[3], y[3])
      s.predict(x[4], y[4])
      s.predict(x[5], y[5])
      if good == 6:
          GoodNet6.append(s)
          for r in range(15):
              GoodNet4.append(s)
      elif good == 5:
          GoodNet5.append(s)
          for r in range(10):
              GoodNet4.append(s)
      elif good == 4:
          GoodNet4.append(s)
          for r in range(5):
              GoodNet4.append(s)
      elif good == 3:
          GoodNet3.append(s)
      elif good == 2:
          GoodNet2.append(s)
      elif good == 1:
          GoodNet1.append(s)
      elif good == 0:
          GoodNet0.append(s)
      good = 0
    listNet = []
    listNet.extend(GoodNet6)
    listNet.extend(GoodNet5)
    listNet.extend(GoodNet4)
    listNet.extend(GoodNet3)
    listNet.extend(GoodNet2)
    listNet.extend(GoodNet1)
    GoodNet1 = []
    GoodNet2 = []
    GoodNet3 = []
    GoodNet4 = []
    GoodNet5 = []
    GoodNet6 = []
    goodNET = listNet[:100]
    listNet = goodNET
    goodNET = []
    if epoch == 1000:

        print(listNet[0].Fpredict(x[0], y[0]))
        print(listNet[0].Fpredict(x[1], y[1]))
        print(listNet[0].Fpredict(x[2], y[2]))
        print(listNet[0].Fpredict(x[3], y[3]))
        print(listNet[0].Fpredict(x[4], y[4]))
        print(listNet[0].Fpredict(x[5], y[5]))
        print(listNet[0].Fpredict(x[6], y[6]))
        print(listNet[0].Fpredict(x[7], y[7]))
        print(listNet[0].Fpredict(x[8], y[8]))

        good = 0
        print('wait')
    elif epoch == 1:

        good = 0
        print(listNet[0].Fpredict(x[0], y[0]))
        print(listNet[0].Fpredict(x[1], y[1]))
        print(listNet[0].Fpredict(x[2], y[2]))
        print(listNet[0].Fpredict(x[3], y[3]))
        print('wait1')
    for g in range(1000):
        parent1 = random.choice(listNet)

        parent2 = random.choice(listNet)
        ch1H = np.vstack((parent1.H1[:1], parent2.H1[1:])) * random.uniform(-2, 2)
        ch1O = parent1.O1 * random.uniform(2, 2)
        g = Network1(ch1H, ch1O)
        NewNet.append(g)
    listNet = NewNet

这就是神经网络应该找到的模式,这就是最终版本所依赖的数字(第一,第二,第三)并忽略其余的。例如,您可以执行逻辑运算(xor、not、and ...),仅在这种情况下,在网络类中将输入数据更改为 2,我还遵循隐藏层中的神经元等于输入的规则数据乘以二,它起作用了,但是你可以尝试你的选择,向神经网络提供相同数量的一些答案和其他答案也很重要,以便正确答案的数量,例如“a”,将等于“b”,否则神经网络将回答所有答案同样的方式,也就是说,如果有更多的 a,那么它会回答所有问题,但不会有任何结果,也在训练样本中给它完全不同的选项,以便它理解模式,例如,如果你一个xor块,那么你必须添加一个带有两个1的选项,但是在逻辑运算的情况下,你必须给出所有选项,因为它们太少了,它不会理解任何东西。
就是这样!!!下一篇文章(必读!):很快……
代码:https://github.com/lanskoykirill/gennumpy.git

我的网站(可能正在重新设计):selfrobotics.space

以上就是使用 Python 和 NumPy 为神经网络创建简单高效的遗传算法的详细内容,更多请关注知识资源分享宝库其它相关文章!

版权声明

本站内容来源于互联网搬运,
仅限用于小范围内传播学习,请在下载后24小时内删除,
如果有侵权内容、不妥之处,请第一时间联系我们删除。敬请谅解!
E-mail:dpw1001@163.com

分享:

扫一扫在手机阅读、分享本文

上一篇:python爬虫怎么用 下一篇:任务-Python 包
发表评论
热门文章
  • 华为 Mate 70 性能重回第一梯队 iPhone 16 最后一块遮羞布被掀

    华为 Mate 70 性能重回第一梯队 iPhone 16 最后一块遮羞布被掀
    华为 mate 70 或将首发麒麟新款处理器,并将此前有博主爆料其性能跑分将突破110万,这意味着 mate 70 性能将重新夺回第一梯队。也因此,苹果 iphone 16 唯一能有一战之力的性能,也要被 mate 70 拉近不少了。 据悉,华为 Mate 70 性能会大幅提升,并且销量相比 Mate 60 预计增长40% - 50%,且备货充足。如果 iPhone 16 发售日期与 Mate 70 重合,销量很可能被瞬间抢购。 不过,iPhone 16 还有一个阵地暂时难...
  • 酷凛 ID-COOLING 推出霜界 240/360 一体水冷散热器,239/279 元

    酷凛 ID-COOLING 推出霜界 240/360 一体水冷散热器,239/279 元
    本站 5 月 16 日消息,酷凛 id-cooling 近日推出霜界 240/360 一体式水冷散热器,采用黑色无光低调设计,分别定价 239/279 元。 本站整理霜界 240/360 散热器规格如下: 酷凛宣称这两款水冷散热器搭载“自研新 V7 水泵”,采用三相六极马达和改进的铜底方案,缩短了水流路径,相较上代水泵进一步提升解热能力。 霜界 240/360 散热器的水泵为定速 2800 RPM 设计,噪声 28db (A)。 两款一体式水冷散热器采用 27mm 厚冷排,...
  • 惠普新款战 99 笔记本 5 月 20 日开售:酷睿 Ultra / 锐龙 8040,4999 元起

    惠普新款战 99 笔记本 5 月 20 日开售:酷睿 Ultra / 锐龙 8040,4999 元起
    本站 5 月 14 日消息,继上线官网后,新款惠普战 99 商用笔记本现已上架,搭载酷睿 ultra / 锐龙 8040处理器,最高可选英伟达rtx 3000 ada 独立显卡,售价 4999 元起。 战 99 锐龙版 R7-8845HS / 16GB / 1TB:4999 元 R7-8845HS / 32GB / 1TB:5299 元 R7-8845HS / RTX 4050 / 32GB / 1TB:7299 元 R7 Pro-8845HS / RTX 2000 Ada...
  • python中def什么意思

    python中def什么意思
    python 中,def 关键字用于定义函数,这些函数是代码块,执行特定任务。函数语法为 def (参数列表)。函数可以通过其名字和圆括号调用。函数可以接受参数作为输入,并在函数体中使用参数名访问。函数可以使用 return 语句返回一个值,它将成为函数调用的结果。 Python 中 def 关键字 在 Python 中,def 关键字用于定义函数。函数是代码块,旨在执行特定任务。 语法 def 函数定义的语法如下: def (参数列表): # 函数体 示例 定义...
  • python中int函数的用法

    python中int函数的用法
    int() 函数将值转换为整数,支持多种类型(字符串、字节、浮点数),默认进制为 10。可以指定进制数范围在 2-36。int() 返回 int 类型的转换结果,丢弃小数点。例如,将字符串 "42" 转换为整数为 42,将浮点数 3.14 转换为整数为 3。 Python 中的 int() 函数 int() 函数用于将各种类型的值转换为整数。它接受任何可以解释为整数的值作为输入,包括字符串、字节、浮点数和十六进制表示。 用法 int(object, base=10) 其中...