常用命令及函数
Linux
下述简写分别表示:CMD
命令,PATH
路径,FILE
文件,FOLD
文件夹.
通用命令
路径处理
文件下载压缩解压
.tar.gz
结尾的一般程序安装包,.zip
为一般压缩包.
使用编译安装
如果安装的文件是github上的项目,一般有后缀为 .tar.gz
的安装包,使用 weget 下载路径
或者在本机上下载下来后再使用WinSCP上传上去也行,这里以安装 ncurses
为例:
一键Tmux分屏脚本
服务器上的tmux脚本,创建三个窗口,效果如下图所示,并且每个窗口初始化bash source ~/.bashrc
.
由于服务器上一般要用后台运行神经网络训练程序,而且每次新的界面要重新 scoure ~/.bashrc
,所以我创建了一个一键创建tmux分屏窗口并运行 source
指令,可大幅提高效率.
使用方法,在用户目录(随便一个方便的目录)下创建 run.sh
文件,将下面代码贴进去,然后使用 chmod 777 run.sh
修改权限,以后启动服务器后,输入下面代码就能直接启动tmux进行分屏
Python 常用函数
re 和 fnmatch
re是用于表示正则表达式,而fnmatch是用于处理shell样式通配符. 更多正则表达式内容可以参考 regex101,该网页还能解释给出的正则表达式非常智能.
pattern = re.compile(pattern)
:编译正则表达式pattern
.pattern.search(string)
:在string
中搜索pattern
所包含的第一个正则表达位置及长度.pattern.findall(string)
: 在string
中搜索每一个pattern
匹配得到的串.
fnmatch.translate(pattern)
:将shell样式通配符转化为正则表达式.fnmatch.fnmatch(string, pattern)
:判断pattern
是否匹配字符串string
.
shell样式通配符比较简单常用:
- ‘*’: 匹配任意数量的字符,包括零字符.
- ‘?’: 匹配任何单个字符.
- ‘[sequence]’: 匹配任意字符序列.
- ‘[!sequence]’: 匹配任何非顺序的字符.
下述内容来自ChatGPT:
shell样式的通配符模式是一种用于匹配文件名或路径名的模式,它可以包含特殊字符,如'*', '?', '[sequence]'
. 这些特殊字符在shell样式通配符模式中具有特定的含义,它们分别用于匹配任意数量的字符、任意单个字符或给定序列中的任意字符. 另一方面,正则表达式是一种用于匹配字符串的模式,它可以包含广泛的特殊字符和语法元素,允许您指定用于匹配字符串的复杂模式. 正则表达式比shell样式的通配符模式更强大、更灵活,但它们也更难以阅读和理解。
另一方面,正则表达式是一种用于匹配字符串的模式,它可以包含广泛的特殊字符和语法元素,允许您指定用于匹配字符串的复杂模式。正则表达式比shell样式的通配符模式更强大、更灵活,但它们也更难以阅读和理解。
下面是一些shell样式通配符模式和等价正则表达式模式的例子:
Shell-style wildcard pattern | Regular expression pattern |
---|---|
*.txt |
.*\.txt |
test* |
test.* |
[0-9]* |
[0-9].* |
warning
自定义 warning
信息,用于给出警告,但是默认的 warning
输出信息非常丑陋,难以识别,在文件开头处加上以下代码
使用方法 warnings.warn('警号信息')
,一个例子:
效果:(可以给出warning的文件路径、行号、warning信息)
pathlib
-
pathlib.Path(directory)
:directory
为文件的路径,返回pathlib.Path
对象,该对象存储的为directory
这条路径. -
pathlib.Path.cwd()
:cwd为Current working directory的缩写,即返回当前运行程序所在的目录. -
pathlib.Path.glob(pattern)
:pattern
是一个shell类型的通配符(shell-style wildcard pattern),则该函数会返回该路径下所有符合该pattern
的文件路径. 如*.py
就会返回全体以.py
为后缀的文件,*
可以理解为任一的一个前缀(文件名). -
path.mkdir(parents=True, exist_ok)
:path
为pathlib.Path
对象即当前创建目录的路径,parents=True
若父目录不存在,则创建父目录;exist_ok=True
若当前目录不存在时才会进行创建,不会抛出异常. -
path.is_file()
:判断path
是否是文件. -
path.is_dir()
:判断path
是否是文件夹.
urllib
用于文件下载,主要使用 urllib.request.urlretrieve(url, path)
对url链接进行下载,下载到 path
路径下. 一般与 tarfile
一同使用.
tarfile
用于解压 .tgz
, .tar.bz2
文件.
datatime
主要是处理时间字符串所用.
- 时间字符串读入:
data = datetime.strptime(string, time_format)
,将格式化时间信息字符串string
根据格式time_format
转化为datatime
时间格式.
例如time_format = '%Y-%m-%d %H:%M:%S'
,则可以读入类似2157-11-21 03:16:00
的年份. 具体time_format
格式请见下面折叠内容. - 获取两个时间的相对天数:
relative_days = (data1 - data2).days
- 获取两个时间的相对秒数:
relative_seconds = (data1 - data2).seconds
(不足一天的则化为秒计算)
通过24 * relative_days + relative_seconds / 3600
即可求出相对小时数.
matplotlib
显示中文
只需将下述配置放置在包导入之后即可,有以下两种配置方案,第一个使用的是宋体,更加正规;第二个使用的是黑体,也很清晰好用,推荐第二种。
绘图参数
绘图一般以以下顺序逐步进行,多次使用 plt.plot
后绘制的图像会覆盖之前绘制的图像.
plt.figure(figsize=(6, 4), dpi)
:创建长宽为6x4大小的幕布,在此基础上乘上单位分辨率dpi
,即为图像分辨率.plt.plot(X, y, 'r-s', markersize=8, lw=2, label='SGD')
:依(X, y)
绘制二维图像,第三个参数用于控制图像属性,r
表示红色,-
表示直线,s
表示方块点,markersize
表示描点所用图形的大小(即方块的大小),lw
是linewidth
的缩写,用于调整线的宽度,label
表示该图形的标签,需要使用plt.legend()
显示标签. 以下为几种常用图像属性:'r-s'
红色,直线,方块描点.'g--^'
绿色,虚线,上三角描点.b.
蓝色,散点图.r:
红色,虚线.
plt.legend(loc=None)
:显示图例,loc
表示固定图例位置,默认为自动选择适合的位置,常用位置有:upper left, lower right, center left ...
plt.axis([x1, x2, y1, y2])
:用于控制显示坐标系范围,横坐标限制在[x1, x2]
范围内,纵坐标限制在[y1, y2]
范围内.plt.xlabel("Xname"), plt.ylabel("Yname", rotation=0)
:设定x,y轴坐标名称,rotation
表示逆时针旋转角度,由于y轴标签默认旋转90度,如果标签内容较少,建议不要旋转.plt.axhline(y=0, color='k')
:以y=0
绘制黑色竖线,表示y轴.plt.axvline(x=0, color='k')
:以x=0
绘制黑色竖线,表示x轴.plt.text(x, y, text, fontsize=16, ha='center', color='k')
:在(x,y)
点处以16
号字体居中绘制黑色字符串text
,ha
表示字符串位置,默认为left
.plt.tight_layout()
:在保存图像前,建议使用该api,可以将多余边界去除,使图像更美观,其具有参数w_pad, h_pad
用于子图的宽度和高度的填充.plt.savefig("figure/fname.png", dpi=300)
:将图像保存到./figure/fname.png
文件中,单位分辨率为dpi=300
,如果figsize=(3,2)
则输出图像的分辨率为900x600
. 支持图片类型还有.jpg .pdf .svg
.plt.show()
:显示图像,并关闭当前幕布,完成全部绘图.
结合以上方法进行绘图的例子:
同时绘制多个图像
绘制等高线
等高线图主要有两种:
- 等高线填充背景:
plt.contourf(x1, x2, z, levels=levelz, cmap='viridis')
:x1, x2
为网格划分后的对应坐标,z
对应网格点的高度值,levels
表示等高线的划分点,在两个等高线之间的区域用同种颜色填充,cmap
表示填充使用的颜色带.plt.colorbar(label)
:通过绘制颜色柱为等高线提供每种颜色对应的高度值.
- 绘制等高线:
contour = plt.contour(x1, x2, z, levels=levelz, cmap='viridis')
:用法与plt.contourf
类似,只不过是在对应levels
处绘制等高线.plt.clabel(contour, fontsize=14, inline=True)
:使用plt.contour
返回值,使用fontsize
字号在等高线内绘制对应的高度.(inline
默认为True
,一般无需添加)
常用的
cmap
选项:viridis, jet, rainbow, summer, autumn
等.
更多等高线的例子请见:训练线性模型 - 代码实现
多个子图共享图例,绘制均值+方差
子图绘制方法主要使用 fig, axs = plt.subplots(nrows, ncols, figsize=(w,h))
进行图初始化,其中 fig
表示整幅图的实例化句柄,axs
是一个 np.ndarray
坐标系数组的实例化数组,满足 axs.shape=(nrows, ncols)
,ax=axs[i,j]
表示图中 行 列的子图对应的坐标系,本质上使用 plt.func
都是间接地调用 fig.func1
或 ax.func2
中的函数,func1, func2
的名称可能和 func
函数名有小部分差异,例如:
fig.tight_layout(...)
:等价于plt.tight_layout(...)
fig.savefig(...)
:等价于plt.savefig(...)
fig.legend(...)
:等价于plt.legend(...)
ax.plot(...)
:等价于plt.plot(...)
ax.set_xlabel(...)
:等价于plt.xlabel(...)
ax.set_ylabel(...)
:等价于plt.ylabel(...)
ax.set_xlim(...)
:等价于plt.xlim(...)
ax.set_ylim(...)
:等价于plt.ylim(...)
ax.set_xticks(...)
:等价于plt.xticks(...)
ax.set_yticks(...)
:等价于plt.yticks(...)
想要制定图像绘制的子图,只需使用 axs[i,j].plot(...)
对曲线进行绘制(hist, bar
类似);图例的合并方法如下:
- 绘制均值曲线:
line, = ax.plot(x, y, label=label, c=color, lw=3)
,line
能够将当前绘制的曲线记录下来,line.get_color()
可获取其对应的颜色; - 绘制方差曲线范围:
ax.fill_between(x, y-stds, y+stds, color=line.get_color(), alpha=0.2)
,y-stds, y+stds
分别为曲线范围的下边界与上边界,并保持颜色和中间绘制的均值曲线相同的,再加上0.2
的透明度; handles, labels = ax.get_legend_handles_labels()
可以从当前坐标系中绘制的曲线对应图例的句柄handles
和句柄对应的图例名称labels
(二者都是列表);- 图例共享:
fig.legend(handles, labels, loc='lower center', ncols=3, frameon=False)
,handles
表示共享图例对应的句柄,labels
表示图例句柄所对应的标签,loc
表示图例的放置位置,ncols
表示图例的列数(默认为1
),frameon
表示是否启用图例的边界框; - 由于直接绘制图例会导致和子图的下半部分重叠的问题,需要将子图向上进行平移,使用
fig.subplots_adjust(bottom=0.20)
可以将底部向上扩展 20%(注意plt.tight_layout()
要在其前调用)。
在坐标系上绘制箭头
通过ax.spines
修改坐标轴的相关参数,用marker
方式绘制箭头的头部。
numpy
随机
np.random.permutation(n)
:生成1,...,n
的随机排列.
pandas
pandas读取的文件类型为 pandas.core.frame.DataFrame
一般记为 df
. 空单元格记为 None
,是一种二维数组的形式,只不过可以通过索引获取元素值,索引分为两种,行与列:
- 行索引默认从0开始顺次编号,一般为数字;
- 列索引默认为原表格中的第0行的列名称,一般为字符串.
实参与形参:如果是单行单列的切片,则返回的数据类型为 pandas.core.series.Series
,大部分api和 DataFrame
类似,而且是形参,做多行多列的切片返回的仍然是 DataFrame
数据类型,也是形参. 如果直接将 DataFrame
传入到函数中则是实参则是实参.
读取查找操作及修改行列索引
以下为读入 .csv
文件为例,若为 excel
表格(文件后缀为 .xls
或 xlsx
)只需将 read_csv()
改为 read_excel()
.
-
df = pd.read_csv(path, header=0)
:从path
路径中读取.csv
文件,header=0
表示以第0行作为列索引,若header=None
则默认以序号作为列索引,数据内容从表格的第一行开始. -
获取列表元素有如下两种方式:
-
根据行索引与列索引进行查找,例如查找列索引为
col1
索引为i
对应的元素:df.loc[i, col1]
. -
根据表格的相对位置进行查找(即将原表格视为二维数组进行查找),例如查找第
i
行第j
列的元素:df.iloc[i, j]
.切片的方法和通常做法相同,例如取出前100行:
df.iloc[:100]
,取出50到99行:df.iloc[50:100]
.
注:使用
iloc
速度会比loc
速度快非常多,处理较大表格时建议使用iloc
.
- 修改行列的方法:
-
修改列名称有两种方法:
- 通过
df.columns = ['rename_col1', 'rename_col2', ...]
直接修改列名称,此方法一般在对全部列名进行修改时使用. - 通过
df.rename(columns={'col1': 'rename_col1'})
通过字典映射修改列名,此方法一般对部分列名进行修改时使用.
- 通过
-
设定行索引的方法:
df.set_index('col')
以col
列作为新的索引列. -
删除某个行或列的方法:
df.drop(['col1, col2', ...], axis=1)
删除掉'col1', 'col2', ...
列;df.drop([index1, index2, ...], axis=0)
删除掉行索引为index1, index2, ...
的行. 如果加上replace=True
的参数,则会在原表格上进行操作,无需重新赋值.
可以使用 len(df)
获取行数,或者 df.shape
获取行与列数,使用 list(df)
可以方便地获得列索引.
如果想直接将DataFrame转化为numpy数组格式,则可以通过 df.values
获得.
但需要注意的是,如果
df
中存在字符串,则df.values
会转化为字符数组,需要自行转化数据格式.
查看数据结构
-
df.head(n=5)
:显示前n行内容,默认显示5行. -
df.info()
:显示文件相关信息,包括:列索引,每列Non-Null的个数,每列的数据类型. -
df.describe()
:显示数字列的相关信息,包括:行数,中位数,标准差,最小最大值,1/4,1/2,3/4分位数. -
df['col1'].value_counts()
:对第col1
求去重后的元素个数(一般用于处理字符串数据). -
df.hist(bins=50, figsize=(18, 12)
:显示每一列的直方图结果,使用matplotlib.pyplot
进行绘制成多个子图形式,使用plt.show()
显示.
数据可视化
主要使用 df.plot
函数,以下为散点图使用方法.
df.plot(kind='scatter', x='col1', y='col2', alpha=0.1, s=df['col3'], c=df['col4'], cmap='jet', colorbar=False, xlabel=, ylabel=)
:kind='scatter'
表示使用散点图进行绘制,以col1
列作为x轴,col2
列作为y轴,绘制散点图,每个点的透明度为alpha
,每个点的大小为df['col3']
控制,每个点的颜色由df['col4']
控制,色彩分布使用jet
类型,不显示色彩带colorbar=False
,后面的参数为plt
的常用参数配置,例如xlabel
为x轴标签,等等.
相关性分析
-
计算相关系数矩阵:
df.corr()
,返回每个数值列与数值列之间的相关系数值.(wikipedia上相关性介绍) -
绘制散点图矩阵
scatter_matrix(df[attributes])
,其中attributes
为要显示的列索引,将每列与每列之间绘制散点图,可视化两两数据之间的相关性.
数据处理
-
df.reset_index(drop=False)
:重新对列表的索引值进行设置,从0
开始一次递增,若drop=False
则保留原索引为index
列,默认保留,若为drop=True
则不保留.(该api也可用于创建索引列) -
df.value_counts()
:统计每种值出现的个数. -
pd.cut(df['col1'], bins=[a1,a2,...,a9], labels=[1,2,...,8])
:对df['col1']
列按照(a1,a2], (a2,a3], ..., (a8, a9]
划分为 段,每一段均为左开右闭,第i
段的标签记为i
(默认标签为这一段的数值范围). -
df.apply(function, args=(arg1, ...), **kargs, axis=0)
:对表格df
中的每一行切片提取出来,传入到function
函数中进行处理,如果function
函数有其他参数,则切片为第一个传入参数,后面的无初始化值的参数可以通过args
传入,而有初始化参数可以直接传入参数及其对应的值,默认放到function
函数中. 可以参考下图:
注:apply处理每行的信息速度要比逐个遍历每行做切片速度快得多.
-
df.grouby('col').apply(function)
:对表格df
中的'col'
列相同元素进行提取,然后传入到function
函数中进行处理. 适用于具有连续性数据处理,满足某种性质的数据均具有某个相同的属性值. -
df.drop_duplicates()
:对行进行去重,完全相同的行会只保留一个. -
df1.merge(df2, how='outer', on=['col1'])
:将表格df1, df2
进行外合并,on=['col1']
表示以col1
列作为每行的基准值(可以有多个基准值,例如['col1', 'col2']
,默认以行索引作为基准值)逐行进行合并,how='outer'
时为外合并,即对于两个表格中的全部基准值,相同基准值则会进行合并,不同基准值会用None填补,如果有多个相同基准值,则会添加额外的列显示;how='inner'
时为内合并,即只对两个表格中同时具有的基准值进行合并,如果某个基准值仅在一个表格中出现,则会将其丢弃. -
df.sort_values('col', ascending=True)
:表示将表格中的每行按照'col'
列的元素递增形式进行排序,若ascending=False
则以递降形式进行排序.
数据清理
处理缺失的特征,有如下三种选择:
-
丢弃缺失值对应的整行:
df.dropna(axis=0, subset=None)
,axis=0
表示清除规则为按行清除,subset
可以指定清除某一列的缺失值,默认为行清除,清除整个表格中的全部缺失值. -
丢弃缺失值对应的整列:
df.dropna(axis=1)
. -
将缺失值补全为某个值(0、平均数或中位数等):例如,按0补全
df['col1'].fillna(0)
如此操作可能对于新数据处理不方便,因为可能出现新的列有缺失值,而上述补全方式不适用于对于新的一列进行补全,所以使用Scikit-Learn中的SimpleImputer方式可以更好的进行数据补全,参见另一篇文章Scikit-Learn SimpleImputer类
dask
dask是一个支持对numpy,pandas高效并行处理的包,常用于处理超大文件,可以分块处理超大表格.
由于dask的使用方法和numpy,pandas类似,只需将 np.array
改为 dask.Array
,pd.DataFrame
改为 dask.DataFrame
,而且在操作命令上都基本相同,只不过并不会根据命令立刻执行操作,而是会产生一个延迟包 dask.delayed
,会将操作的结果的框架返回,而不会计算出具体的数值,只有在操作的最后加上 .compute()
命令才会执行计算.
使用 dask.diagnostics.ProgressBar
包裹计算的命令即可显示处理的进度条:
DataFrame
import dask.dataframe as dd
读入包,读入到 dask.dataframe
之后的处理,与pandas基本完全一致,只需最后在计算时加上 .compute()
即可.
-
文件读取:
ddf = dd.read_csv(file_path, dtype=None)
,dask会根据每列的第一个数据对一整列的数据类型进行猜测,如果后续出现不同的数据类型,则会报出错误,会给出推荐的dtype
类型指定,只需将其给出的建议加入到dtype
参数位置即可. -
通过
pd.DataFrame
转化:ddf = dd.from_pandas(df, npartitions=32)
,从df
转化为dask.DataFrame
文件,划分为npartitions
个块. -
文件保存:
ddf.to_csv(save_path, single_file=True)
,保存也和pandas类似,但是如果直接调用保存api,则会根据划分的块,保存出多个文件,如果希望单个文件保存,可使用single_file=True
.
cv2
绘制滑动窗口
Nvidia显卡信息查看
Scikit-Learn
TensorFLow
Jax+Flax+Optax
请见 Jax+Flax+Optax 学习笔记,Jax+Flax+Optax 常用API
tensorboard 和 wandb 使用方法
请见 Jax+Flax+Optax 学习笔记 - 利用tensorboar和wandb可视化训练过程
ffmpeg
请见 ffmpeg常用命令