首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Hank’s Blog

    2-7 R语言基础 数据框

    > df <- data.frame(id=c(1,2,3,4),name=c("a","b","c","d"),gender=c(TRUE,TRUE,FALSE,FALSE)) > nrow(df) #4行 [1] 4

    36820发布于 2020-09-16
  • 来自专栏Deep learning进阶路

    2-7 顺序表 和 链表 对比

    2-7 顺序表 和 链表 对比 1、存储结构的不同 虽然它们同属于线性表,但数据的存储结构有本质的不同: 顺序表存储数据,需预先申请一整块足够大的存储空间,然后将数据按照次序逐一存储,逻辑关系就是靠元素间物理空间上的邻接关系来维持

    43520发布于 2019-07-02
  • 来自专栏嵌入式音视频

    2-7 输入圆的半径,计算其周长与面积

    预览图如下 #include<stdio.h> int main() { int r; printf("请输入r:"); scanf("%d",&r); { if(r>0) {printf("面积是:%f\n",3.14159*r*r); printf("周长是:%f\n",2*3.14159*r);} else printf("输入的r不合法!\n"); } return 0; }

    63030编辑于 2022-12-01
  • 来自专栏刷题笔记

    2-7 一元多项式求导 (20 分)

    本文链接:https://blog.csdn.net/shiliang97/article/details/101025651 2-7 一元多项式求导 (20 分) 设计函数求一元多项式的导数。

    81820发布于 2019-11-08
  • 来自专栏cwl_Java

    C++编程之美-数字之魅(代码清单2-7)

    代码清单2-7 int lowestOne(int N) { int Ret = 0; while(N) { N >>= 1; Ret

    22220编辑于 2022-11-30
  • 来自专栏机器学习与统计学

    不能更详细的PyTorch环境安装与配置

    由于 PyTorch 采用了动态计算图(Dynamic Computational Graph)结构,且基于tape的Autograd系统的深度神经网络。 torch.nn:具有共享层和损失函数的神经网络库。 torch.optim:具有通用优化算法(如SGD、Adam等)的优化包。 ? NVIDIA cuDNN是用于深度神经网络的GPU加速库。 : ",cudnn.is_acceptable(x)) 在命令行运行以下脚本: python test_gpu.py 如果可以看到如图2-6或图2-7所示的结果,则说明GPU版PyTorch安装成功! ▲图2-6 运行test_gpu.py的结果 在命令行运行:nvidia-smi,可以看到如图2-7所示的界面。 ?

    3.6K20发布于 2019-12-09
  • 来自专栏机器人网

    最全机器学习算法汇总

    2-7支持向量对最大间隔的支持 支持向量机是一种二分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器。 如图2-7所示,由于支持向量在确定分离超平面中起着关键性的作用,所以将这种分类模型称为支持向量机。 图2-8将二维线性不可分转换为三维线性可分 3、 深度学习简介 这里将简单介绍神经网络的由来。介绍顺序为:感知机、多层感知机(神经网络)、卷积神经网络及循环神经网络。 3.1 感知机 ? 3.4 循环神经网络 图3-4 循环神经网络可以看成一个在时间上传递的神经网络 循环神经网络可以看成一个在时间上传递的神经网络,它的深度是时间的长度,神经元的输出可以作用于下一个样本的处理。 普通的全连接神经网络和卷积神经网络对样本的处理是独立的,而循环神经网络则可以应对需要学习有时间顺序的样本的任务,比如像自然语言处理和语言识别等。

    1.3K51发布于 2018-04-18
  • 来自专栏CDA数据分析师

    很火的深度学习框架PyTorch怎么用?手把手带你安装配置

    由于 PyTorch 采用了动态计算图(Dynamic Computational Graph)结构,且基于tape的Autograd系统的深度神经网络。 torch.nn:具有共享层和损失函数的神经网络库。 torch.optim:具有通用优化算法(如SGD、Adam等)的优化包。 ? NVIDIA cuDNN是用于深度神经网络的GPU加速库。 : ",cudnn.is_acceptable(x)) 在命令行运行以下脚本: python test_gpu.py 如果可以看到如图2-6或图2-7所示的结果,则说明GPU版PyTorch安装成功! ▲图2-6 运行test_gpu.py的结果 在命令行运行:nvidia-smi,可以看到如图2-7所示的界面。 ?

    1.5K10发布于 2019-12-10
  • 来自专栏机器学习养成记

    神经网络-BP神经网络

    感知器作为初代神经网络,具有简单、计算量小等优点,但只能解决线性问题。 BP神经网络在感知器的基础上,增加了隐藏层,通过任意复杂的模式分类能力和优良的多维函数映射能力,解决了异或等感知器不能解决的问题,并且BP神经网络也是CNN等复杂神经网络等思想根源。 1 基本概念 BP神经网络是一种通过误差反向传播算法进行误差校正的多层前馈神经网络,其最核心的特点就是:信号是前向传播,而误差是反向传播。 2 BP神经网络结构 BP神经网络包含输入层、隐藏层和输出层,其中,隐藏层可有多个,其中,输入层和输出层的节点个数是固定的(分别是输入样本的变量个数和输出标签个数),但隐藏层的节点个数不固定。 以具有单隐藏层的BP神经网络为例,其网络结构如下图: ? 3 BP神经网络原理公式 以单隐藏层的BP神经网络为例,各阶段原理公式如下: 前向传播。

    2.3K20发布于 2021-03-04
  • 来自专栏华章科技

    很火的深度学习框架PyTorch怎么用?手把手带你安装配置

    由于 PyTorch 采用了动态计算图(Dynamic Computational Graph)结构,且基于tape的Autograd系统的深度神经网络。 torch.nn:具有共享层和损失函数的神经网络库。 torch.optim:具有通用优化算法(如SGD、Adam等)的优化包。 ? NVIDIA cuDNN是用于深度神经网络的GPU加速库。 : ",cudnn.is_acceptable(x)) 在命令行运行以下脚本: python test_gpu.py 如果可以看到如图2-6或图2-7所示的结果,则说明GPU版PyTorch安装成功! ▲图2-6 运行test_gpu.py的结果 在命令行运行:nvidia-smi,可以看到如图2-7所示的界面。 ?

    1K40发布于 2019-12-02
  • 神经

    NEAT是从简单的单层网络逐步演化成复杂的神经网络拓扑结构的一种方法。 如果鼠标悬停在神经元上,会弹出一个标签来描述它是哪种类型的神经元(S形,正弦,余弦,高斯等)。具有大重量级的连接将具有比光连接更暗且更厚的颜色。 我最终做的是用一个单线性加隐藏神经元(不是sigmoid)来初始化网络,并且把所有的输入连接到这个初始神经元,并且把这个初始神经元连接到所有三个输出通道,所有这三个输出通道都具有随机的初始权值。 image.png 黄色的正弦神经元已被随机添加在与最初的加性神经元分离的后一代中,以产生重复的关键模式。 对于我的网络,我实际上允许所有隐藏的神经元自由地与网络中的另一个非输入神经元连接,所以实际上我们很可能最终得到循环网络。感谢recurrent.js中的Graph对象,这不是很难做到。

    1.4K101发布于 2018-02-05
  • 来自专栏智能大数据分析

    【机器学习-神经网络】循环神经网络

      在前面两篇文章中,我们分别介绍了神经网络的基础概念和最简单的MLP,以及适用于图像处理的CNN。从中我们可以意识到,不同结构的神经网络具有不同的特点,在不同任务上具有自己的优势。 这就是本文要介绍的循环神经网络(recurrent neural networks,RNN)。 一、循环神经网络的基本原理   我们先从最简单的模型开始考虑。 因此,这样重复的网络结构可以用图2中的循环来表示,称为循环神经网络。 图2 RNN的循环表示   RNN的输入与输出并不一定要像上面展示的一样,在每一时刻都有一个输入样本和一个预测输出。

    79500编辑于 2025-01-22
  • 来自专栏全栈程序员必看

    神经网络学习 之 BP神经网络

    上一次我们讲了M-P模型,它实际上就是对单个神经元的一种建模,还不足以模拟人脑神经系统的功能。由这些人工神经元构建出来的网络,才能够具有学习、联想、记忆和模式识别的能力。 BP网络就是一种简单的人工神经网络。 本文具体来介绍一下一种非常常见的神经网络模型——反向传播(Back Propagation)神经网络。 ,如果输出层的第一个神经单元的输出值比第二个神经单元大,我们认为这个数据记录属于第一类,否则属于第二类。 ,隐含层有 p p p个神经元,输出层有 q q q个神经元。 由此,我们得到神经网络隐层神经元个数的选取原则是:在能够解决问题的前提下,再加上一两个神经元,以加快误差下降速度即可。 3.初始权值的选取 一般初始权值是取值在(−1,1)之间的随机数。

    6.5K20编辑于 2022-09-01
  • 来自专栏生信小驿站

    黑箱方法-神经网络①人工神经网络

    人工神经网络 人工神经网络的概念 人工神经网络(Artificial Neural Networks,ANN)是对一组输入信号和一组输出信号之间的关系进行建模,使用的模型来源于人类大脑对来自感觉输入的刺激是如何反应的理解 通过调整内部大量节点(神经元)之间相互连接的权重,从而达到处理信息的目的。 从广义上讲,人工神经网络是可以应用于几乎所有的学习任务的多功能学习方法:分类、数值预测甚至无监督的模式识别。 人工神经网络的构成与分类 常见的人工神经网就是这种三层人工神经网络模型,如果没有隐含层,那就是两层人工神经网络;如果有多层隐含层那就是多层人工神经网络。 小圆圈就是节点,相当于人脑的神经元。 这是我们主要使用的B-P神经网络模型就是典型的前馈式神经网络模型。 另外,由于层数和每一层的节点数都可以改变,多个结果可以同时进行建模,或者可以应用多个隐藏层(这种做法有时称为深度学习 (deep learning) 第二种是反馈式神经网络,这种神经网络的特点是层间节点的连接是双向的

    1K30发布于 2018-08-27
  • 来自专栏生命科学

    神经干细胞移植 “逆转” 神经损伤 - MedChemExpress

    神经退行性疾病中,特定的神经元亚群,例如多巴胺能和胆碱能神经元或运动神经元会逐渐退化,导致特定模式的神经系统功能障碍。传统药物治疗用于延缓疾病进展,不能使功能修复或组织再生[1]。 关于神经干细胞及其分化 神经干细胞 (NSCs) 被喻为中枢神经系统 (CNS) 的 “种子” 细胞,不同神经细胞系的产生起源于成体神经干细胞。 神经元(Neurons) 是神经系统结构和功能的基本单位,通过轴突和树突传递信号。典型的神经元由树突、细胞体、轴突 (包括轴突丘) 和突触前末端组成。神经元自身不能再生。 除了参与细胞通讯外,星形胶质细胞还能通过释放神经营养因子,如胶质细胞系衍生的神经营养因子 (GDNF),以及降低神经元的兴奋中毒,发挥神经保护作用。 FGF-8诱导神经前体细胞 (iNPCs) 衍生多巴胺能神经元 (DA) 生成的关键因子。GDNF一种神经营养因子,能促进中脑多巴胺能神经元的存活分化,支持人多能干细胞来源的神经祖细胞向神经元分化。

    73560编辑于 2022-12-23
  • 来自专栏WOLFRAM

    大脑、神经元、认知:计算神经科学

    它包含大约 1 千亿个神经元,共同来处理信息,并按功能和结构细分为特定的区域。大脑解剖学、神经元的特征和认知图谱被用于表示功能组织的一些关键特性以及我们神经系统的处理能力。 我们新的神经科学内容将带给你大脑、神经元和认知的事实,让你有机会窥视这神奇的神经科学世界。 找到支配左手的神经: 使用 AnatomyPlot3D 函数进行立体可视化: 神经元特性 到目前为止,我们已经看过我们神经系统的宏观图片。现在让我们看看大脑的功能单位,神经元。 "神经元"实体类型可用的各种属性可用于单类神经元的物理、电生理和空间特征: 我们可以得到在特定大脑区域中发现的神经元类型的信息。 例如,我们可以得到海马神经元的列表,这与情绪状态、短期到长期记忆的转换和空间记忆的形成相关联: 收集更多的细节,神经元集合的列表,其轴突在海马的 CA1 神经纤维区域分叉: 神经元传输电信号以便彼此通信

    92770发布于 2018-05-31
  • 来自专栏智能大数据分析

    【机器学习-神经网络】卷积神经网络

      本文继续讲解基于神经网络的模型。在MLP中,层与层的神经元之间两两连接,模拟了线性变换 \boldsymbol W\boldsymbol x+\boldsymbol b 。 事实上,用卷积进行图像处理的技术在神经网络之前就已经出现了,而神经网络将其威力进一步增强。   为了在图像上应用卷积,我们先把一维的卷积扩展到二维。 这一概念同样来源于神经科学,本义是指一个感觉神经元所支配的感受器在视网膜、皮肤等位置能感受到外界刺激的范围。 图6 最大池化 三、用卷积神经网络完成图像分类任务   下面,我们讲解如何用PyTorch实现一个卷积神经网络,并用它完成图像分类任务。该任务要求模型能识别输入图像中的主要物体的类别。 对于深度神经网络来说,其参数量非常庞大。然而,高质量的训练样本又非常稀缺,许多时候要依赖人工标注,费时费力,这使得神经网络的复杂度往往会超过数据的复杂度,从而发生过拟合的情况。

    67400编辑于 2025-01-22
  • 神经进化算法

    问题在于,通过使用传统的深度学习中常见的梯度下降方法,我们试图以这样一种方式“解决”神经网络的权重问题,神经网络学习了系统的传递函数如何工作,即预测给定输入系统的输出,而不是试图找到一个策略。 我认为更正确的方法是忍受困难,并使用可以包含反馈和记忆元件的循环神经网络来进行基于任务的训练。这可能会造成用随机梯度下降(SGD)/反向传播来训练循环神经网络非常困难。 即使是最简单的神经进化算法(“传统神经进化”),没有多余的花里胡哨的普通算法,也许能够解决许多有趣的问题。 这个简单的算法做的是: 取一个特定的神经网络架构,前馈甚至递归,并使这些神经网络的N个(比如说100个)每个随机化取不同的权重。 另外,使用传统神经进化(CNE)复合循环神经网络结构相对简单。

    1.6K100发布于 2018-02-05
  • 来自专栏算法进阶

    神经元谈到深度神经网络

    科学家发现,原因在于人体的神经网络,而神经网络的基本组成就是神经元: 1、外部刺激通过神经元的神经末梢,转化为电信号,传导到神经元。 2、神经元的树突接收电信号,由神经元处理是否达到激活阈值再输出兴奋或者抑制电信号,最后由轴突将信号传递给其它细胞。 3、无数神经元构成神经中枢。神经中枢综合各种信号,做出判断。 二、神经元 既然智慧的基础是神经元,而正因为神经元这些特点才使大脑具有强大的 “运算及决策的能力”,科学家以此为原理发明了人工神经元数学模型,并以神经元为基础而组合成人工神经网络模型。 (注:下文谈到的神经元都特指人工神经元) 如上图就是人工神经元的基本结构。 四、逻辑回归到深度神经网络 基于前面的介绍可以知道,神经网络也就是神经元按层次连接而成的网络,逻辑回归是单层的神经网络,当我们给仅有输入层及输出层的单层神经网络中间接入至少一层的隐藏层,也就是深度神经网络了

    65940编辑于 2022-06-01
  • 来自专栏脑电信号科研科普

    Brain:多种神经发育障碍的共同神经基础

    将网络神经科学应用于神经发育障碍在不同的发育障碍患者上,局部知觉区域和前额叶区域之间接收远程皮质神经元投射呈现网络级减少。与神经发育障碍相关的缺陷范围从学习障碍到更广泛的执行功能、社交技能或智力障碍。 从神经功能系统的角度解释特定领域神经发育障碍的研究,往往忽略了已知的跨大脑系统的动态交互性。利用神经影像数据的大脑网络,其非随机和独特的组织原则可以表征正常和紊乱的大脑功能的神经基质。 因此,核心-外围组织是一种可用于理解神经精神疾病和神经发育障碍的最佳模型。 然而,这种通过单一机械核心缺陷来解释特定神经发育障碍的尝试并未成功。因此,特定神经发育障碍是由封闭的神经区域或回路支持的。 在网络神经科学和核心-外围组织的指导原则下,概念化神经发育障碍增强了这些想法的潜力,以支持学习者的全部能力,而不仅仅是那些患有神经发育障碍的人。

    44510编辑于 2023-06-28
领券