MNIST 数据集包含 70000 张手写数字的灰度图像,分为以下两部分: 其中,每个图像是 28×28 像素… Continue reading MNIST数据集和手写数字的模型训练
分类: 学术
高陈数的蜂窝双层系统中的拓扑隐藏相变 Topological hidden phase transition in honeycomb bilayers with a high Chern number
原文 评价:一般来说,价带内部的拓扑不变量的变化很难体现在量子输运的测量中,但通过研究发现,在这个复合蜂窝双层… Continue reading 高陈数的蜂窝双层系统中的拓扑隐藏相变 Topological hidden phase transition in honeycomb bilayers with a high Chern number
在机器学习模型训练中Epoch的大概取值范围
这是之前相关的两篇: 在机器学习模型训练中,Epoch(可以翻译为:轮次、训练轮数、训练周期) 是指在训练过程… Continue reading 在机器学习模型训练中Epoch的大概取值范围
紧束缚模型和平均场理论的关系
紧束缚模型是对简单模型做参数拟合。 平均场理论是对复杂模型做有效近似。 紧束缚模型的路径偏 bottom-up… Continue reading 紧束缚模型和平均场理论的关系
实空间拓扑不变量(local Chern marker)的Python代码实现例子
这个是之前的一篇:一个实空间拓扑不变量的公式推导(local Chern marker),本篇给出具体的Pyt… Continue reading 实空间拓扑不变量(local Chern marker)的Python代码实现例子
一个实空间拓扑不变量的公式推导(local Chern marker)
本篇的主要参考文献:Mapping topological order in coordinate space… Continue reading 一个实空间拓扑不变量的公式推导(local Chern marker)
贝里曲率为实数的证明
贝里曲率(Berry curvature)是量子力学和凝聚态物理中的一个重要概念,通常用于描述参数空间中的几何… Continue reading 贝里曲率为实数的证明
在薛定谔方程下自由粒子的解
本篇整理和复习下量子力学中的基础概念和推导,求解自由粒子的薛定谔方程。 对于一维情况,自由粒子的薛定谔方程为:… Continue reading 在薛定谔方程下自由粒子的解
当损失函数长时间不再下降时自动停止训练的设置
在机器学习的训练过程中,除了通过多次测试获取经验来设置总的训练轮次,也可以使用额外的代码进行判断,当损失函数长… Continue reading 当损失函数长时间不再下降时自动停止训练的设置
由于内存限制导致数据无法一次性从文件加载到PyTorch 中的简单解决方法
如果训练的数据比较大,无法一次性加载,简单的解决方法是分批从文件中加载。为了演示方便,这里的 x_train,… Continue reading 由于内存限制导致数据无法一次性从文件加载到PyTorch 中的简单解决方法
PyTorch张量数组的合并
这是之前的一篇:PyTorch基础(Tensor数据类型)。 在机器学习中,可能会涉及到多个数据合并后再进行训… Continue reading PyTorch张量数组的合并
使用 guan.chat() 函数实现AI对话
这个网址提供了多个大语言对话模型的 API 接口:https://chat.guanjihuan.com。虽然… Continue reading 使用 guan.chat() 函数实现AI对话
Kolmogorov-Arnold Networks的优势和局限性
《KAN: Kolmogorov-Arnold Networks》论文链接:https://arxiv.org… Continue reading Kolmogorov-Arnold Networks的优势和局限性
反向传播、自动微分、链式法则、梯度下降的关系
链式法则为计算复合函数的导数提供了理论基础,自动微分提供了高效计算导数的技术手段,反向传播利用了这两者来计算神… Continue reading 反向传播、自动微分、链式法则、梯度下降的关系
使用torchviz实现PyTorch计算图的可视化
本篇使用 torchviz 软件包实现 PyTorch 计算图的可视化,做个记录,但个人感觉可视化的作用不是很… Continue reading 使用torchviz实现PyTorch计算图的可视化
机器学习中动态图和静态图的区别
TensorFlow 的早期版本 TensorFlow 1.x 是静态图,在搭建完结构后,需要创建会话(Ses… Continue reading 机器学习中动态图和静态图的区别
最大池化和平均池化的区别
池化一般有最大池化和平均池化。池化通过丢弃信息来降低维度。从字面上就很容易理解: 相关博文:
关于 Adiabatic 绝热的意思
Adiabatic 可翻译成“绝热”,也可扩展翻译成“寖渐/浸渐”,意思包含了“无限缓慢”、“可逆的”、“准静… Continue reading 关于 Adiabatic 绝热的意思
迭代和递归的区别
迭代(iteration)和递归(recursion)都是循环的过程。迭代是在循环体内重复调用另外一个函数或代… Continue reading 迭代和递归的区别
一个完整的卷积神经网络(无训练)
这是之前的两篇: 这里给出一个完整的卷积神经网络,包含两个卷积层和两个全连接层。只是做了正向传播,并没有使用数… Continue reading 一个完整的卷积神经网络(无训练)
卷积和池化后的数据维度
这是之前的一篇:卷积和池化的作用以及代码实现。 在卷积和池化后,通常需要和全连接的神经网络进行连接,为了能够匹… Continue reading 卷积和池化后的数据维度
卷积和池化的作用以及代码实现
卷积(convolution)和池化(pooling)是卷积神经网络(convolutional neural… Continue reading 卷积和池化的作用以及代码实现
主成分分析PCA的原理以及降维实现
主成分分析(Principal Component Analysis, PCA)是一种常用的数据降维方法。主要… Continue reading 主成分分析PCA的原理以及降维实现
批量训练中迭代次数的计算
使用批量训练时,有四个概念: 迭代次数的计算公式如下(能整除的情况): 如果不能整除,在 PyTorch 中默… Continue reading 批量训练中迭代次数的计算
神经网络中常见的激活函数
激活函数在神经网络中扮演着至关重要的角色,它们用于引入非线性特性,使神经网络能够学习和适应更复杂的数据模式。本… Continue reading 神经网络中常见的激活函数
人工智能的大事件记录
这里记录人工智能的大事件,内容可能不完整,将不定期补充和更新: 其他参考资料: [1] 深度学习(Deep L… Continue reading 人工智能的大事件记录
神经网络的主要调参内容和顺序
这里列出我的神经网络主要调参内容和顺序,供参考: 调参的原则:
CPU、GPU和NPU的特点和区别
CPU 的设计初衷是串行,适合于处理各种复杂的逻辑关系。GPU 专注于大规模并行处理,适合同时处理大量简单的计… Continue reading CPU、GPU和NPU的特点和区别
常见的神经网络模型
本篇给出几个常见的神经网络模型和对应的一些重要论文,可能不定期补充更新。除了阅读早期论文,具体学习也可以阅读一… Continue reading 常见的神经网络模型
常见的梯度下降算法
反向传播是一个计算梯度的过程,它通过链式法则将损失函数关于网络参数的梯度从输出层向输入层传播。梯度下降则是一种… Continue reading 常见的梯度下降算法
对话模型chat.guanjihuan.com的主要实现代码开源
这是之前的一篇:双语对话语言模型ChatGLM的下载和安装。本篇把详细的实现代码进行整理并开源,代码也放在我的… Continue reading 对话模型chat.guanjihuan.com的主要实现代码开源
使用Dyson方程计算格林函数的对角分块矩阵(第二种方法)
本篇给出另外一种计算格林函数的对角分块矩阵的方法(由zhangjiayan同学提供),公式会比之前这篇更简洁些… Continue reading 使用Dyson方程计算格林函数的对角分块矩阵(第二种方法)
态密度和通道数的关系
在凝聚态物理中,当讨论能带结构时,有态密度和通道数的概念,之前容易搞混,但它们是不同的。本篇将讨论它们之间的关… Continue reading 态密度和通道数的关系
两端输运中电极自能矩阵在数值上的大概形式
以方格子条带为例,Python代码如下(用到软件包GUAN:https://py.guanjihuan.com… Continue reading 两端输运中电极自能矩阵在数值上的大概形式
PyTorch中常用的模块、类、方法以及神经网络例子
这是之前的两篇: PyTorch安装参考:https://pytorch.org/get-started/lo… Continue reading PyTorch中常用的模块、类、方法以及神经网络例子
PyTorch基础(Tensor数据类型)
PyTorch的官方API为 https://pytorch.org/docs/stable/torch.ht… Continue reading PyTorch基础(Tensor数据类型)
通过速度和能量找到能带折叠前和折叠后的对应关系(附Python代码)
这是之前的一篇:以一维链为例子说明能带折叠(附Python代码)。 本篇讨论的前提是已知能带折叠次数,同时已知… Continue reading 通过速度和能量找到能带折叠前和折叠后的对应关系(附Python代码)
以一维链为例子说明能带折叠(附Python代码)
当元胞以倍数增加时,能带会发生折叠。本篇以一维链为例子,给出折叠后的能带图。 另外推荐阅读:通过速度和能量找到… Continue reading 以一维链为例子说明能带折叠(附Python代码)
陈数Chern number的计算(多条能带的高效法,附Python代码)
本篇主要参考: 高效法和Wilson loop方法在公式是接近的,只是高效法在内积时考虑了归一化系数,所以计算… Continue reading 陈数Chern number的计算(多条能带的高效法,附Python代码)
贝里曲率的计算(写成函数形式,附Python代码)
这是之前的一篇:贝里曲率的计算(附Python代码)。本篇把其中的“高效法”和“Wilson loop方法”的… Continue reading 贝里曲率的计算(写成函数形式,附Python代码)
陈数Chern number的计算(多条能带的Wilson loop方法,附Python代码)
这是之前的一篇:陈数Chern number的计算(Wilson loop方法,附Python代码),仅仅是计… Continue reading 陈数Chern number的计算(多条能带的Wilson loop方法,附Python代码)
六角格子/石墨烯紧束缚模型的朗道能级(附Python代码)
这是之前的一篇:方格子紧束缚模型中朗道能级的陈数/霍尔电导(附Python代码)。本篇计算六角格子的朗道能级,… Continue reading 六角格子/石墨烯紧束缚模型的朗道能级(附Python代码)
二维离散ky能带的叠加和宽度为Ny的条带能带的关系(附Python代码)
在物理上,宽度为Ny的条带能带应该要接近于二维离散 ky 能带的叠加。本篇想通过代码例子,看它们之间是完全相等… Continue reading 二维离散ky能带的叠加和宽度为Ny的条带能带的关系(附Python代码)
非简并波函数和简并波函数的固定规范
一、非简并波函数的固定规范 在之前这篇文章“SSH模型中的Wilson loop(附Python代码)”中,用… Continue reading 非简并波函数和简并波函数的固定规范
几种长度(平均自由程、相位相干长度等)
一、几种长度 样品尺寸(sample size): 平均自由程(mean free path): 相位相干/弛… Continue reading 几种长度(平均自由程、相位相干长度等)
时间反演对称性和空间反演对称性下的贝里曲率
先给出结论:时间反演对称性下的贝里曲率是奇函数,空间反演对称性下的贝里曲率是偶函数[1]。具体表达式如下。 时… Continue reading 时间反演对称性和空间反演对称性下的贝里曲率
贝里曲率的计算(附Python代码)
这是之前的一篇:空间反演对称性破缺的石墨烯的贝里曲率分布(附Python代码),因为用到定义公式,需要对波函数… Continue reading 贝里曲率的计算(附Python代码)
陈数Chern number的计算(Wilson loop方法,附Python代码)
这是之前关于陈数的计算: 本篇计算方法见参考资料:https://topocondmat.org/w4_hal… Continue reading 陈数Chern number的计算(Wilson loop方法,附Python代码)
方格子紧束缚模型中朗道能级的陈数/霍尔电导(附Python代码)
本篇程序主要参考: 准一维方格子能带图(附Python代码) 佩尔斯替换 Peierls substituti… Continue reading 方格子紧束缚模型中朗道能级的陈数/霍尔电导(附Python代码)
BBH模型的nested Wilson loop高阶不变量(附Python代码)
BBH模型和态密度分布参考这篇:BBH高阶拓扑绝缘体模型(附Python代码)。BBH模型和nested Wi… Continue reading BBH模型的nested Wilson loop高阶不变量(附Python代码)