收起
激活函数:中间层特征进行relu,tanh等激活函数的饱和区后可谓是受到了完全不可逆的信息损失。池化层:maxpool、meanpool等池化操作所进行的特征筛选也是不可逆的,其也会带来信息损失。
如果模型没有池化层,和激活函数,根据网络结构及参数应该是可以还原出原始数据的
报告相同问题?