<?xml version="1.0" encoding="utf-8" ?><rss version="2.0"><channel><title><![CDATA[weixin_42479155的博客]]></title><description><![CDATA[]]></description><link>https://blog.csdn.net/weixin_42479155</link><language>zh-cn</language><generator>https://blog.csdn.net/</generator><copyright><![CDATA[Copyright &copy; weixin_42479155]]></copyright><item><title><![CDATA[pandas组队学习6:链接]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/111892046</link><guid>https://blog.csdn.net/weixin_42479155/article/details/111892046</guid><author>weixin_42479155</author><pubDate>Tue, 29 Dec 2020 12:29:32 +0800</pubDate><description><![CDATA[第六章 连接

内容来源:datawhale

import numpy as np
import pandas as pd

一、关系型连接
1. 连接的基本概念
把两张相关的表按照某一个或某一组键连接起来是一种常见操作，例如学生期末考试各个科目的成绩表按照姓名\color{red}{姓名}姓名和班级\color{red}{班级}班级连接成总的成绩表，又例如对企业员工的各类信息表按照员工ID号\color{red}{员工ID号}员工ID号进行连接汇总。由此可以看出，在关系型连接中，键\color{red}]]></description><category></category></item><item><title><![CDATA[强化学习6]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/109565052</link><guid>https://blog.csdn.net/weixin_42479155/article/details/109565052</guid><author>weixin_42479155</author><pubDate>Sun, 08 Nov 2020 21:14:38 +0800</pubDate><description><![CDATA[1 关键词

DDPG(Deep Deterministic Policy Gradient)： 在连续控制领域经典的RL算法，是DQN在处理连续动作空间的一个扩充。具体地，从命名就可以看出，Deep是使用了神经网络；Deterministic 表示 DDPG 输出的是一个确定性的动作，可以用于连续动作的一个环境；Policy Gradient 代表的是它用到的是策略网络，并且每个 step 都会更新一次 policy 网络，也就是说它是一个单步更新的 policy 网络。其与DQN都有目标网络和经验回放的]]></description><category></category></item><item><title><![CDATA[强化学习5]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/109522202</link><guid>https://blog.csdn.net/weixin_42479155/article/details/109522202</guid><author>weixin_42479155</author><pubDate>Thu, 05 Nov 2020 22:37:25 +0800</pubDate><description><![CDATA[Sparse Reward and Imitation Learning
1 关键词


reward shaping： 在我们的agent与environment进行交互时，我们人为的设计一些reward，从而“指挥”agent，告诉其采取哪一个action是最优的，而这个reward并不是environment对应的reward，这样可以提高我们estimate Q-function时的准确性。


ICM（intrinsic curiosity module）： 其代表着curiosity drive]]></description><category></category></item><item><title><![CDATA[强化学习4]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/109479712</link><guid>https://blog.csdn.net/weixin_42479155/article/details/109479712</guid><author>weixin_42479155</author><pubDate>Tue, 03 Nov 2020 21:32:42 +0800</pubDate><description><![CDATA[1 keyword


A2C： Advantage Actor-Critic的缩写，一种Actor-Critic方法。


A3C： Asynchronous（异步的）Advantage Actor-Critic的缩写，一种改进的Actor-Critic方法，通过异步的操作，进行RL模型训练的加速。


Pathwise Derivative Policy Gradient： 其为使用 Q-learning 解 continuous action 的方法，也是一种 Actor-Critic 方法。其会对于]]></description><category></category></item><item><title><![CDATA[Policy Gradient and From On-policy to Off-policy]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/109372408</link><guid>https://blog.csdn.net/weixin_42479155/article/details/109372408</guid><author>weixin_42479155</author><pubDate>Thu, 29 Oct 2020 22:30:44 +0800</pubDate><description><![CDATA[REINFORCE: Monte Carlo Policy Gradient

蒙特卡洛可以理解为算法完成一个 episode 之后，再拿这个 episode 的数据来去 learn 一下，做一次更新。因为我们已经拿到了一整个 episode 的数据的话，也能够拿到每一个 step 的 reward，我们可以很方便地去计算每个 step 的未来总收益，就是我们的期望，就是我们的回报 GtG_tGt​ 。GtG_tGt​ 是我们的未来总收益，GtG_tGt​ 代表是从这个 step 后面，我能拿到的收益之和是]]></description><category></category></item><item><title><![CDATA[二手车预测：task2：数据分布]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/105037027</link><guid>https://blog.csdn.net/weixin_42479155/article/details/105037027</guid><author>weixin_42479155</author><pubDate>Sun, 22 Mar 2020 22:02:14 +0800</pubDate><description><![CDATA[2.1 EDA目标


EDA的价值主要在于熟悉数据集，了解数据集，对数据集进行验证来确定所获得数据集可以用于接下来的机器学习或者深度学习使用。


当了解了数据集之后我们下一步就是要去了解变量间的相互关系以及变量与预测值之间的存在关系。


引导数据科学从业者进行数据处理以及特征工程的步骤,使数据集的结构和特征集让接下来的预测问题更加可靠。


完成对于数据的探索性分析，并对于数据进行一些图表或...]]></description><category></category></item><item><title><![CDATA[使用stratifiedKFold进行分层交叉验证时候报错:ValueError: Supported target types are: ('binary', 'multiclass'). Got]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/105031933</link><guid>https://blog.csdn.net/weixin_42479155/article/details/105031933</guid><author>weixin_42479155</author><pubDate>Sun, 22 Mar 2020 17:52:52 +0800</pubDate><description><![CDATA[ValueError                                Traceback (most recent call last)
&lt;ipython-input-42-2ab744268d80&gt; in &lt;module&gt;()
     20 print('---------分割线--------------')
     21 sfolder = Stra...]]></description><category></category></item><item><title><![CDATA[二手车预测：task1：赛题分析]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/105012348</link><guid>https://blog.csdn.net/weixin_42479155/article/details/105012348</guid><author>weixin_42479155</author><pubDate>Sat, 21 Mar 2020 16:39:40 +0800</pubDate><description><![CDATA[train.csv

name - 汽车编码
regDate - 汽车注册时间
model - 车型编码
brand - 品牌
bodyType - 车身类型
fuelType - 燃油类型
gearbox - 变速箱
power - 汽车功率
kilometer - 汽车行驶公里
notRepairedDamage - 汽车有尚未修复的损坏
regionCode - 看车地区编码
seller...]]></description><category></category></item><item><title><![CDATA[pytorch-数据增强]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/104491831</link><guid>https://blog.csdn.net/weixin_42479155/article/details/104491831</guid><author>weixin_42479155</author><pubDate>Tue, 25 Feb 2020 10:31:34 +0800</pubDate><description><![CDATA[图像增广
在5.6节（深度卷积神经网络）里我们提到过，大规模数据集是成功应用深度神经网络的前提。图像增广（image augmentation）技术通过对训练图像做一系列随机改变，来产生相似但又不同的训练样本，从而扩大训练数据集的规模。图像增广的另一种解释是，随机改变训练样本可以降低模型对某些属性的依赖，从而提高模型的泛化能力。例如，我们可以对图像进行不同方式的裁剪，使感兴趣的物体出现在不同位置，...]]></description><category></category></item><item><title><![CDATA[pytorch-模型微调]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/104491800</link><guid>https://blog.csdn.net/weixin_42479155/article/details/104491800</guid><author>weixin_42479155</author><pubDate>Tue, 25 Feb 2020 10:30:13 +0800</pubDate><description><![CDATA[9.2 微调
在前面的一些章节中，我们介绍了如何在只有6万张图像的Fashion-MNIST训练数据集上训练模型。我们还描述了学术界当下使用最广泛的大规模图像数据集ImageNet，它有超过1,000万的图像和1,000类的物体。然而，我们平常接触到数据集的规模通常在这两者之间。
假设我们想从图像中识别出不同种类的椅子，然后将购买链接推荐给用户。一种可能的方法是先找出100种常见的椅子，为每种椅子...]]></description><category></category></item><item><title><![CDATA[pytorch-文本情感分类]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/104491750</link><guid>https://blog.csdn.net/weixin_42479155/article/details/104491750</guid><author>weixin_42479155</author><pubDate>Tue, 25 Feb 2020 10:28:42 +0800</pubDate><description><![CDATA[文本情感分类
文本分类是自然语言处理的一个常见任务，它把一段不定长的文本序列变换为文本的类别。本节关注它的一个子问题：使用文本情感分类来分析文本作者的情绪。这个问题也叫情感分析，并有着广泛的应用。
同搜索近义词和类比词一样，文本分类也属于词嵌入的下游应用。在本节中，我们将应用预训练的词向量和含多个隐藏层的双向循环神经网络与卷积神经网络，来判断一段不定长的文本序列中包含的是正面还是负面的情绪。后续内...]]></description><category></category></item><item><title><![CDATA[pytorch-词向量进阶]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/104470248</link><guid>https://blog.csdn.net/weixin_42479155/article/details/104470248</guid><author>weixin_42479155</author><pubDate>Sun, 23 Feb 2020 23:54:46 +0800</pubDate><description><![CDATA[词嵌入进阶
在“Word2Vec的实现”一节中，我们在小规模数据集上训练了一个 Word2Vec 词嵌入模型，并通过词向量的余弦相似度搜索近义词。虽然 Word2Vec 已经能够成功地将离散的单词转换为连续的词向量，并能一定程度上地保存词与词之间的近似关系，但 Word2Vec 模型仍不是完美的，它还可以被进一步地改进：

子词嵌入（subword embedding）：FastText 以固定大...]]></description><category></category></item><item><title><![CDATA[pytorch-词嵌入基础]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/104470240</link><guid>https://blog.csdn.net/weixin_42479155/article/details/104470240</guid><author>weixin_42479155</author><pubDate>Sun, 23 Feb 2020 23:53:30 +0800</pubDate><description><![CDATA[词嵌入基础
我们在“循环神经网络的从零开始实现”一节中使用 one-hot 向量表示单词，虽然它们构造起来很容易，但通常并不是一个好选择。一个主要的原因是，one-hot 词向量无法准确表达不同词之间的相似度，如我们常常使用的余弦相似度。
Word2Vec 词嵌入工具的提出正是为了解决上面这个问题，它将每个词表示成一个定长的向量，并通过在语料库上的预训练使得这些向量能较好地表达不同词之间的相似和类...]]></description><category></category></item><item><title><![CDATA[pytorch-优化算法进阶]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/104465654</link><guid>https://blog.csdn.net/weixin_42479155/article/details/104465654</guid><author>weixin_42479155</author><pubDate>Sun, 23 Feb 2020 19:37:50 +0800</pubDate><description><![CDATA[11.6 Momentum
在 Section 11.4 中，我们提到，目标函数有关自变量的梯度代表了目标函数在自变量当前位置下降最快的方向。因此，梯度下降也叫作最陡下降（steepest descent）。在每次迭代中，梯度下降根据自变量当前位置，沿着当前位置的梯度更新自变量。然而，如果自变量的迭代方向仅仅取决于自变量当前位置，这可能会带来一些问题。对于noisy gradient,我们需要谨慎...]]></description><category></category></item><item><title><![CDATA[pytorch-梯度下降]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/104465631</link><guid>https://blog.csdn.net/weixin_42479155/article/details/104465631</guid><author>weixin_42479155</author><pubDate>Sun, 23 Feb 2020 19:36:41 +0800</pubDate><description><![CDATA[梯度下降
（Boyd &amp; Vandenberghe, 2004）
%matplotlib inline
import numpy as np
import torch
import time
from torch import nn, optim
import math
import sys
sys.path.append('/home/kesci/input')
import d2lzh...]]></description><category></category></item><item><title><![CDATA[pytorch-优化与深度学习]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/104445856</link><guid>https://blog.csdn.net/weixin_42479155/article/details/104445856</guid><author>weixin_42479155</author><pubDate>Sat, 22 Feb 2020 16:28:01 +0800</pubDate><description><![CDATA[优化与深度学习
优化与估计
尽管优化方法可以最小化深度学习中的损失函数值，但本质上优化方法达到的目标与深度学习的目标并不相同。

优化方法目标：训练集损失函数值
深度学习目标：测试集损失函数值（泛化性）

%matplotlib inline
import sys
sys.path.append('/home/kesci/input')
import d2lzh1981 as d2l
from m...]]></description><category></category></item><item><title><![CDATA[pytorch- 批量归一化]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/104436626</link><guid>https://blog.csdn.net/weixin_42479155/article/details/104436626</guid><author>weixin_42479155</author><pubDate>Fri, 21 Feb 2020 22:49:54 +0800</pubDate><description><![CDATA[批量归一化（BatchNormalization）
对输入的标准化（浅层模型）
处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。
标准化处理输入数据使各个特征的分布相近
批量归一化（深度模型）
利用小批量上的均值和标准差，不断调整神经网络中间输出，从而使整个神经网络在各层的中间输出的数值更稳定。
1.对全连接层做批量归一化
位置：全连接层中的仿射变换和激活函数之间。
全连接：
x=...]]></description><category></category></item><item><title><![CDATA[pytorch-modernCNN]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/104391190</link><guid>https://blog.csdn.net/weixin_42479155/article/details/104391190</guid><author>weixin_42479155</author><pubDate>Wed, 19 Feb 2020 12:53:41 +0800</pubDate><description><![CDATA[深度卷积神经网络（AlexNet）
LeNet:  在大的真实数据集上的表现并不尽如⼈意。
1.神经网络计算复杂。
2.还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。
机器学习的特征提取:手工定义的特征提取函数
神经网络的特征提取：通过学习得到数据的多级表征，并逐级表⽰越来越抽象的概念或模式。
神经网络发展的限制:数据、硬件
AlexNet
首次证明了学习到的特征可以超越⼿⼯设计的特征，从...]]></description><category></category></item><item><title><![CDATA[pytorch-lenet]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/104384386</link><guid>https://blog.csdn.net/weixin_42479155/article/details/104384386</guid><author>weixin_42479155</author><pubDate>Tue, 18 Feb 2020 22:37:38 +0800</pubDate><description><![CDATA[course content

lenet 模型介绍
lenet 网络搭建
运用lenet进行图像识别-fashion-mnist数据集

Convolutional Neural Networks
使用全连接层的局限性：

图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。
对于大尺寸的输入图像，使用全连接层容易导致模型过大。

使用卷积层的优势：

卷积层保留输...]]></description><category></category></item><item><title><![CDATA[pytorch-卷积神经网络基础]]></title><link>https://blog.csdn.net/weixin_42479155/article/details/104380961</link><guid>https://blog.csdn.net/weixin_42479155/article/details/104380961</guid><author>weixin_42479155</author><pubDate>Tue, 18 Feb 2020 19:30:47 +0800</pubDate><description><![CDATA[卷积神经网络基础
本节我们介绍卷积神经网络的基础概念，主要是卷积层和池化层，并解释填充、步幅、输入通道和输出通道的含义。
二维卷积层
本节介绍的是最常见的二维卷积层，常用于处理图像数据。
二维互相关运算
二维互相关（cross-correlation）运算的输入是一个二维输入数组和一个二维核（kernel）数组，输出也是一个二维数组，其中核数组通常称为卷积核或过滤器（filter）。卷积核的尺寸通...]]></description><category></category></item></channel></rss>