Home
  • 首页
  • 归档
  • 分类
  • 标签
  • 关于
  • 友链
  • 文档
    杂记 模板&dotfiles 常用命令及函数 算法总结 Linux杂记

ML算法探索 G-VAE

2023学年的研究生机器学习课程的结课展示报告。 详细算法解释请见PDF,在 GitHub - KataCV/G-VAE 上可以找到全部的图片生成结果和代码文件。
2023-10-28
CVPR

CTC Loss及OCR经典算法CRNN实现

这里我们将基于深度神经网络CNN+CTC loss进行OCR(图像文本识别),可以使用经典CRNN网络,但是我这里使用的是全卷积网络,因为文本长度并不长,所以并不想考虑文本的序列信息,没有使用LSTM部分。 参考文献: (CTC loss)Connectionist Temporal Classification: Labelling Unsegmented Sequence Data wi
2023-10-13
CVPR

YOLOv2,YOLOv3笔记

YOLO9000: Better, Faster, Stronger(YOLOv2), YOLOv3: An Incremental Improvement 非常好的视频讲解:YouTube - ML For Neerds - YOLO OBJECT DETECTION SERIES 全部代码,自己用JAX+Flax+Optax实现,仅在数据读入处使用TensorFlow,从零开始实现YOLOv
2023-10-04
CVPR
#YOLO

YOLOv1笔记

背景介绍 YOLOv1是Joseph Redmon于2015年提出的目标检测检测算法,YOLO系列(2023/09/20已经出到第8个版本)的特点在于其极高的识别速度,经典目标识别网络还有R-CNN和SSD,这些算法具有较高的准确率但是速度比YOLO慢至少一倍。 值得注意的是,作者Joseph Redmon在发布YOLOv3之后就退出CV界了,原因在于YOLO算法被用于商业中隐私窃取和军事武器当
2023-09-19
CVPR
#YOLO

SAC (Soft Actor-Critic) 算法

概述 SAC算法可以简单理解为一种将Q-Learning用于策略 πθ(a∣s)\pi_{\theta}(a|s)πθ​(a∣s) 估计的算法,由于使用了策略网络,所以可以用于解决连续问题,与梯度策略定理(A2C)或策略迭代定理(TRPO,PPO)不同,SAC策略网路的更新目标浅显易赅,就是要近似 Qπ∗(s,⋅)Q_{\pi^*}(s,\cdot)Qπ∗​(s,⋅) 对应的 softmax 分
2023-09-05
强化学习

Jax+Flax+Optax 常用API

Jax, Flax, Optax 中的常用API 下述代码测试环境CPU: R7-4800U,无GPU Jax jax.jit jax.jit(func, static_argnums=None, static_argnames=None) -> jit_func 用于对入参数类型为矩阵的纯函数 func 进行编译返回包装后的函数 jit_func,其中 static_argnum
2023-09-03
神经网络框架 > Jax
#Jax

Jax+Flax+Optax 学习笔记

As accelerated Numpy 首先Jax有类似 numpy 的函数库,API使用基本一致: import jax.numpy as jnp x = jnp.aranga(int(1e8)) %timeit jnp.dot(x, x) # 比 np.dot() 要快, gpu上更快 First Transformation grad 和数学中求导一致,Jax可以自动对Python中
2023-08-21
神经网络框架 > Jax
#Jax

PPO (Proximal Policy Optimization) 算法

参考文献:(1). Proximal Policy Optimization Algorithms - OpenAI, (2). Trust Region Policy Optimization - Berkeley,(3). Generalized Advantage Estimation - Berkeley 理论推导 基础定义 与概率论中记法一致,用大写字母表示随机变量,小写字母表
2023-08-12
强化学习

A2C (Advantage Actor-Critic) 算法

A2C (Advantage Actor-Critic) Algorithm 算法 设 π(a∣s;θ)\pi(a|s;\theta)π(a∣s;θ) 为当前智能体策略网络,其中 θ\thetaθ 为网络参数,Vπ(S)V_\pi(S)Vπ​(S) 为状态价值函数,最优化目标 max⁡θES[Vπ(S)]=:J(θ)\max_\theta\mathbb{E}_S[V_{\pi}(S)] =:
2023-08-03
强化学习

DQN (Deep Q-Network) 算法

DQN (Deep Q-Network) Algorithm 算法 DQN is based on Q-Learning, it changes the estimate of the Q function from “grid search” to “network search”. It’s an off-policy algorithm, which allow us to store
2023-08-03
强化学习
1…34567…16

搜索

Hexo Fluid
Enjoy sharing!