logo
  • 教程列表
  • SO官方文档
  • tensorflow 教程
    • 使用 1D 卷积
      • 基本的例子
      • 数学背后的 1D 卷积与 TF 中的高级示例
    • 如何使用 TensorFlow 图表集合
      • 创建自己的收藏并用它来收集所有的损失
      • 从嵌套作用域中收集变量
    • 在 TensorFlow 中保存和恢复模型
      • 保存模型
      • 恢复模型
    • 使用 TensorFlow 创建 RNN,LSTM 和双向 RNN LSTM
      • 创建双向 LSTM
    • 使用批量标准化
      • 具有批量归一化的 2 层神经网络的完整工作示例(MNIST 数据集)
    • 在 TensorFlow 图中使用 if 条件,使用 tf.cond
      • 基本的例子
      • 当 f1 和 f2 返回多个张量时
      • 使用参数定义和使用函数 f1 和 f2
    • 如何在 TensorFlow 中调试内存泄漏
      • 使用 Graph.finalize() 来捕获添加到图中的节点
      • 使用 tcmalloc 分配器
    • 测量单个操作的执行时间
      • TensorFlows 时间轴对象的基本示例
    • tensorflow 入门
      • 基本例子
      • 数到 10
      • 安装或设置
      • Tensorflow 基础知识
    • 阅读数据
      • 如何从 TXT 文件加载图像和标签
      • 随机洗牌的例子
      • 使用批处理读取 n 个时期的数据
      • 计算 CSV 文件中的示例
      • 阅读 Parse TFRecord 文件
    • 使用 tf.py func 创建自定义操作(仅限 CPU)
      • 为什么要使用 tf.py func
      • 基本的例子
    • 张量索引
      • 从张量中提取切片
      • 如何使用 tf.gather nd
      • 从张量的第一维提取非连续切片
      • 使用张量的类似 Numpy 的索引
    • 占位符
      • 占位符基础知识
      • 占位符默认值
    • 使用转置卷积图层
      • 使用 tf.nn.conv2d 转置用于任意批量大小和自动输出形状计算
    • 多维 softmax
      • 创建 Softmax 输出层
      • 计算 Softmax 输出层的成本
    • 在 Python 中保存 Tensorflow 模型并使用 Java 加载
      • 使用 Python 创建和保存模型
      • 在 Java 中加载和使用模型
    • TensorFlow GPU 设置
      • 控制 GPU 内存分配
      • 仅在 CPU 上运行 TensorFlow - 使用 CUDA VISIBLE DEVICES 环境变量
      • 仅在 CPU 上运行 TensorFlow Graph - 使用 tf.config
      • 使用一组特定的 GPU 设备
      • 列出 TensorFlow 在本地流程中可用的设备
    • 变量
      • 声明和初始化变量张量
      • 获取 TensorFlow 变量或 Tensor 的值
    • 使用 TF 中的高级示例进行 2D 卷积后的数学运算
      • 没有填充步幅 1
      • 一些填充步幅 1
      • 填充和跨步(最常见的情况)
    • Q 学习
      • 最小的例子
    • 矩阵和向量算法
      • 点产品
      • 元素乘法
      • 标量时间是一个张量
    • 可视化卷积层的输出
      • 2 个步骤的基本示例
    • TensorFlow 中使用 Python 的简单线性回归结构
      • 简单的回归函数代码结构
      • 主要例行
      • 规范化例程
      • 读取数据例程
    • 分布式 Tensorflow 的极简主义示例代码
      • 分布式训练示例
  1. StackOverflow 文档
  2. tensorflow 教程
  3. 使用 1D 卷积

    使用 1D 卷积

  • 基本的例子 数学背后的 1D 卷积与 TF 中的高级示例
  • 基本的例子

Copyright © 2018. All right reserved

tastones.com 备案号:鲁ICP备18045372号-1

  • 关于我们
  • 免责声明