配个深度学习的服务器,需要多大内存起步?

2491人阅读
在计算机时代的早期,一名极客的满足感很大程度上来源于能DIY一台机器。到了深度学习的时代,前面那句话仍然是对的。
在2013年,MIT科技评论将深度学习列为当年十大科技突破之首。其原因在于,模型有其为庞大的网络结构,参数够多,学习能力够强,能配合大数据达到惊人的效果。而且,能自动学习特征,避免了“特征工程”这种繁琐的手工劳动。对于图像、音频和文字处理领域有极大的意义。因为最近在尝试用深度学习做文本挖掘,所以需要一台深度学习服务器(相信我,如果用CPU来跑,你的人生显得好短)。
那么就有三个选择项:
A、购买组装好的服务器,例如NVIDIA DIGITS&
B、购买云服务,例如Amazon的
C、自己攒一台深度学习服务器。
A项从性价比上不合算,而且不一定买的到。B项的云服务对于研究探索性质工作而言也比较贵,机器配置也不一定合适,所以我们就C项了。
硬件选择:基本思路是单显卡机器,保留升级空间
显卡选择:
先解释一点,深度学习为什么需要显卡计算?
GPU 是为大规模的并行运算而优化;
GPU 上则更多的是运算单元(整数、浮点的乘加单元,特殊运算单元等等);
GPU 往往拥有更大带宽的显存,因此在大吞吐量的应用中也会有很好的性能。
这里有一个很有趣的,解释了GPU和CPU的计算区别。
所以显卡选择最重要,因为准备基于CUDA计算(CUDA (ComputeUnified Device Architecture) 是NVIDIA开发的GPU并行计算环境。),所以只能选择Nvida系列的。在英伟达产品系列中,有消费领域的GeForce系列,有专业绘图领域的Quadro系列,有高性能计算领域的Tesla系列,如何选择?
有论文研究,太高的精度对于深度学习的错误率是没有提升的,而且大部分的环境框架都只支持单精度,所以双精度浮点计算是不必要,Tesla系列都去掉了。从显卡效能的指标看,CUDA核心数要多,GPU频率要快,显存要大,带宽要高。这样,最新Titan X算是价格便宜量又足的选择。
在深度学习任务中,CPU并不负责主要任务,单显卡计算时只有一个核心达到100%负荷,所以CPU的核心数量和显卡数量一致即可,太多没有必要,但是处理PCIE的带宽要到40。
主板选择:
需要支持X99架构,支持PCIe3.0,还要支持4通道DDR4内存架构。如果要搞四显卡并行,PCIE带宽支持要达到40,并且支持4-WayNVIDA SLI技术。
达到显存的二倍即可,当然有钱的话越大越好。
电源问题:一个显卡的功率接近300W,四显卡建议电源在1500W以上,为了以后扩展,选择了1600W的电源。
机箱散热:
因为各种部件相当庞大,需要有良好散热功能的大机箱,选择了Tt Thermaltake Core V51机箱,标配3个12cm风扇。未来如果需要还可以加装水冷设备。
以上就是主要硬件环境的选择和安装。
软件环境安装:
主要安装了Ubuntu系统,CUDA环境,以及theano、keras环境
1、安装ubuntu 14.04(不要安装麒麟版本)
&通过官网下载iso文件刻录U盘安装,在SSD硬盘上自动安装完成。
2、安装cuda 7.5 deb文件(自带显卡驱动)
2.1 获取CUDA安装包,在NVidia官网下载local deb文件。
2.2执行如下命令安装:
& & $ sudo dpkg -i cuda-repo-ubuntu-local_7.0-28_amd64.deb
& & $ sudo apt-get update
& & $ sudo apt-get install cuda
2.3设置环境变量:sudo gedit /etc/profile
& & $ export PATH=/usr/local/cuda-7.5/bin:$PATH
& & $ exportLD_LIBRARY_PATH=/usr/local/cuda-7.5/lib64:$LD_LIBRARY_PATH
2.4重启机器:用其中一个样例进行验证测试
& & $ cuda-install-samples-7.5.sh ~
& & $ cd ~/NVIDIA_CUDA-Samples_7.5/5_Simulations/nbody
& & $ make
& & $ ./nbody
& & 或者在sample目录中make测试项目1_utility,再运行./deviceQuery
3、安装python以及theano工具
3.1 直接下载安装anaconda套件64位版本。
& & 下载后用conda升级到最新。anaconda自带openblas,使numpy和theano计算能达到最大效能
3.2 修改了theano配置文件,使之缺省由gpu运算
&在主目录下新建.theanorc文件
&.theanorc中输入下面的内容
&root=/usr/local/cuda/bin/
&floatX = float32
&device = gpu0
&fastmath = True
3.3 安装完成后参考如下地址进行测试
&THEANO_FLAGS=floatX=float32,device=gpupython `python -c &import os, printos.path.dirname(theano.__file__)&`/misc/check_blas.py
3.4 安装keras
& & 通过anaconda安装pipinstall keras
& & 注意keras依赖的theano是dev版本的,需要从github下源码来安装。注意本系统此时有两个python,所以要写路径
& & sudo /home/user/anaconda/bin/python setup.py develop
4、设置远程服务器调用
4.1 安装ssh,启动服务
4.2 设置notebook server
&在ipython中如下命令设置密码:
&from IPython.lib import passwd
&记下生成的字符串。
&创建一个ipython配置文件,比如起名叫myserver
&ipython profile create myserver
&vim~/.ipython/profile_myserver/ipython_notebook_config.py
&编辑文件,加入下面几项:
&c = get_config()
&c.IPKernelApp.pylab = 'inline' #启动inline模式
&c.NotebookApp.ip = '*'
&c.NotebookApp.open_browser = False
&c.NotebookApp.password =u'sha1:yourhashedpassword' &#把第二步的密码考进来
&c.NotebookApp.port = 6868 & #自己设一个端口号
&ipython notebook --profile=myserver
4.3 远程浏览器调用
&远程中浏览器登陆http://192.168.3.31:6868/,输入密码,即可进入ipython notebook。
&如果需要保持连接,则
&nohup ipython notebook--profile=myserver
&lsof nohup.out
&kill -9 &PID&
最后的硬件配置:
CPU: Intel X99平台 i7 5960K
内存: DDR4 G*4)
主板: GIGABYTE X99-UD4
显卡: GTX Titan X
硬盘: SSD+普通硬盘
系统和软件
操作系统: Ubuntu 14.04.3 x64
Anaconda 2.3
Theano 7.0
参考资料:
//which-gpu-for-deep-learning/
//deep-learning-hardware-guide/
http://graphific.github.io/posts/running-a-deep-learning-dream-machine/
/cuda/cuda-quick-start-guide/index.html#ubuntu-x86_64-deb
http://deeplearning.net/software/theano/tutorial/using_gpu.html#cuda
之前网上找到另一种安装theano方式是。但尝试未成功,有可能是因为CPU等硬件不同,可能需要自行编译安装openblas,numpy, scipy, theano等环境,极为繁琐。最后还是直接用Anaconda方便。
&&相关文章推荐
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:15556次
排名:千里之外
原创:80篇
(22)(40)(5)(6)(1)(5)(2)(4)中国领先的IT技术网站
51CTO旗下网站
成本14,000元,如何自己动手搭建深度学习服务器?
通过与大家进行交流,阅读了大量博客文章之后,我最终决定开始配置自己的深度学习服务器。当今科技和硬件的发展是如此的迅猛,我担心我曾阅读过的文章很快就会过时,但我希望自己的以下总结能够为大家带来帮助。
作者:机器之心| 15:13
在完成 Jeremy Howard 非常出色的深度学习第一部分课程之后,我查看了一下我的亚马逊网络服务(AWS)账单,发现我每个月运行 GPU
都要花费差不多 200 美元。以这样的代价来完成网络课程看起来代价有点大,而且我已开始着手研究一些课程以外的数据集,并迫切地想得出结果。
通过与大家进行交流,阅读了大量博客文章之后,我最终决定开始配置自己的深度学习服务器。当今科技和硬件的发展是如此的迅猛,我担心我曾阅读过的文章很快就会过时,但我希望自己的以下总结能够为大家带来帮助。
配置服务器的 6 大步骤:
1). 选择组件
3). 安装操作系统
4). 安装驱动程序
5). 安装库
6). 设置远程访问
1. 选择部件
我阅读了大量博客,最终形成了现在应该选择哪种配置的概念。因为硬件更新换代太快,在下个世代到来时到底该买哪些型号的部件,这一问题还是得留给你们研究。但是一般而言,你需要选购以下部件:主板、CPU、内存(随机存取存储器,RAM)、硬盘驱动器(固态硬盘,SSD)、显卡(GPU)、CPU
风扇、电源和机箱。
P.S. 我强烈建议你在购买之前在
上创建一个清单。这个网站的特色在于它有一个「兼容性检查」的功能,它会告诉你自己选择的部件是否互相兼容。我的列表在这里。
部件清单(原文为美国市场价,机器之心将其替换为 2 月 23 日,京东自营/淘宝价)
CPU&英特尔 i7 7700k(Kabylake)4.2GHz 四核 2799 元
内存&海盗船 复仇者 LPX 32GB (2 x 16) DDR4& 元
固态硬盘&三星 850 EVO sata3 500G 1299 元
GPU&索泰 GeForce GTX 1080 8GB 4999 元
主板&微星 Z270-A PRO ATX LGA 元
CPU 风扇&酷冷至尊 Hyper 212 EVO 82.9 CFM 128 元
供电电源&EVGA SuperNOVA G2 750W ATX 879 元
机箱&NZXT S340 (White) ATX Mid Tower Case 369 元
总价:14,271 元
我决定从单块显卡开始自己的装机之路,但我选择的微星 (MSI) 主板有多个 PCIe 通道,这意味着如果有需要,我可以在未来添加更多的
GPU。一般而言,我都会选择那些用户评论数最多的硬件,即使这些评论褒贬不一。但评论意味着部件受欢迎的程度,用户数量越大,就越有可能出现用户自行创建的使用指南和建议。这会为你接下来的两个步骤免去了很大的痛苦。
一些实用的文章:
Build Personal Deep Learning Rig
Optimizing a Starter CUDA Build
Building a Deep Learning Dream Machine
Deep Learning Hardware Guide
这一部分非常有趣。几乎所有的部件,我都可以在网上找到相关的指导性视频,但是有一些部件我必须要根据相似型号的安装视频才可以。微星主板、酷冷至尊风扇和
NZXT 机箱的指导手册非常不错,但是我还是需要再找一些其他的材料。
买一把好用的螺丝刀&&我的螺丝刀非常的差劲,所以很快就让我停滞不前了。买一个杆长一点的螺丝刀,这样你就可以够得到很紧的地方,也是为自己省力。
不要吝惜自己的力量&&免责声明:要是把什么东西弄坏了,不要怪我。但是至少在两种情况下(CPU
和内存),我因为在安装部件时候用劲太小浪费了好多时间。我担心太过用力,所以如果部件不能够轻松放进去,我就放弃了。至于内存,我几乎在亚马逊上购买了一整套新的芯片。这些情况下,解决的办法就是用力压。
理解你的 BIOS&&BIOS
是一个预先安装在主板上的软件,是你的机器启动时加载的第一个软件。它基本上是你配置硬件和安装操作系统的一个控制面板。学会如何在 BIOS 上找到「引导盘」(U
盘或是包含操作系统的固态硬盘),怎样选择使用哪一张显卡都是非常重要的。遗憾的是微星的用户手册在这些问题上表达得不甚清楚,但是这个视频()会让你更好地进行理解。
你的显示器没有坏&&弄清怎样让显示屏在我的新机器上工作花了我不少时间。我之前曾听说在你第一次启动的时候,你需要将你的 HDMI
线插到主板的某个位置,因为一开始显卡驱动还没有安装。我照做了,但是当我最后启动的时候,显示器上什么都没有。接着我尝试把线插到显卡上,也没有用。最后我尝试将显卡拔出来,把线连上主板并重新启动。终于能看到东西了!这意味着,微星的主板如果不能在
通道找到其他的外置显卡,就会默认使用核显。因为在我第一次启动的时候,就安装了显卡,主板就选择使用我的的新新卡。显示器上看不到任何东西是因为我没有安装英伟达的驱动。
最后,大功告成了!
3. 安装操作系统
在显示器可以工作之后,你会看到一个这样的界面。这就是你的 BIOS(注:不同品牌的主板,BIOS
界面略有不同)。我需要更改两处配置,以保证所有的东西都能正常运行:更改启动优先级,替换默认的显卡。
在 MSI 主板上预置的 BIOS
我计划主要将我的机器用于编程和机器学习,所以我决定要安装 Ubuntu 操作系统。我还希望能够通过我的 Mac 对它进行远程操作,所以我可能不需要
Windows,但是你可以安装双系统。
制作安装 Ubuntu 的 U 盘
我依照针对 Mac
的说明(),下载了一个叫做
UNetBootin () 的客户端,它可以为你把所有的事情都处理好。
启动 UBUNTU
若是一切正常,我应该能够插入我的 U 盘,重启,回答问题,安装一个完全可运行版本的
Ubuntu,准备好进行下一步。但是,我得到的确实这样的错误信息。
我按了好几次退出键,之后按了删除键,之后 F1、 F10、 F12、 #%^ 、 $\&]&&&#^,但都没有用。
问题在于微星主板已经选择了默认的「启动优先级」。再次进入 BIOS(在开机之后立刻按 F11),我看到 BIOS
的配置是首先启动硬件驱动(三星固态硬盘),这里面是空的,但是也可能会有一大堆选项。解决办法就是把 USB
选项拉到优先级列表的顶部,然后重启。最后,我看到了这十分友好的 Ubuntu 安装屏幕!
在安装了 Ubuntu 并且重启之后,我很失望地发现我卡在了 Ubuntu 的加载屏幕上,它就停在了那里,最终超时。这又是怎么了呢?!
原来问题在于微星主板内置的显卡(我的 GTX 1080 还在我的咖啡桌上)。它与 Ubuntu
的图形用户界面(GUI)不兼容!这真是经典的鸡和蛋的问题。没有 Ubuntu,我不能下载使用显卡所需的驱动,但是没有显卡,我不能安装 Ubuntu!进入
Ubuntu 启动菜单。你可以在开机后按压左 Shift 键进入这一菜单。
最后,我找到了两篇非常好的文章(,)帮我解决了这个问题。解决办法就是在启动命令中添加一个
*nomodeset*参数。这帮我安装了一个普通版本的 Ubuntu GUI,得以让我继续进行。
4. 安装驱动程序
英伟达的驱动是出了名地难运行,这一个也不例外。在其他用户的引导下,我去英伟达的网站下载了 GeForce 驱动程序,接着利用 Ubuntu GUI
对它进行安装。这个错误给我带来了很大的痛苦。
无法检测到可兼容的英伟达显卡
这又是一个鸡和蛋的问题。我没有再重新接上 GTX 1080 是因为没有驱动程序它无法工作。如果我重新接上,MSI
主板就会开始再次使用它,我就又回到了我开始的地方。解决办法是重新进入
BIOS,改变显卡优先级。我更新了设置,将优先级赋予给内置显卡,而不是选择新的显卡。这样我又可以重新接入 GTX 1080,并正常进入 Ubuntu。
你好像在运行 X 服务器
我通过使用这里的说明 ()
解决了这个问题,但是在最初,我都无法通过第一步:「点击
CTRL+ALT+F1,使用你的凭据登录。」我这样做了之后,屏幕又变成了空白,和显示器的连接就断开了。解决方法是启动
Ubuntu,进入文本模式,完成命令行的步骤。
更好的办法
最终让我感到欣慰的是所有的东西(驱动程序、CUDA、深度学习库等)都可以运行了。但是没过多久,因为一些配置文件我又把事情搞得一团糟。
在 Ask Ubuntu 网站上浏览了几个小时之后,我注意到英伟达驱动程序上预先安装了新的 CUDA 8.0 工具箱,让你可以同时安装 CUDA
和驱动程序。
我清除了现有的英伟达库,运行了下面的代码,然后一切都便正常运行了。你可以在这里
看到完整的说明。
wget&http://developer./compute/cuda/repos/ubuntu/cuda-repo-ubuntu.44-1_amd64.deb&sudo&dpkg&-i&cuda-repo-ubuntu.44-1_amd64.deb&sudo&apt-get&update&sudo&apt-get&install&cuda&
然后将下面的代码添加多你的~/.bash_文件中:
export&PATH=/usr/local/cuda-8.0/bin${PATH:+:${PATH}}&export&LD_LIBRARY_PATH=/usr/local/cuda-8.0/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}&export&LIBRARY_PATH=/usr/local/cuda-8.0/lib64${LIBRARY_PATH:+:${LIBRARY_PATH}}&
5. 安装深度学习库
有很多的好文章都对必要的深度学习库和如何安装进行了描述。关键点在于你不能够盲目地跟随这些说明,尤其是关于如何安装的部分。因为这些说明经常更新,你可以在这些库的网站上找到更好的示例。下面是我安装的一些工具:
CUDA&利用 GPU 的并行计算平台
cuDNN&加速深度学习的英伟达库
Anaconda&Python 数据科学 (numpy, scikit, jupyter..)
OpenBLAS&快速的线性代数方法
Tensorflow&谷歌的机器学习框架
Theano&深度学习框架
Keras&另一种框架,可以简化 Tensorflow 或 Theano 的工作
在这之后,我进行了一些测验以保证一切正常运行,并开始运行 Jupyter 笔记本。
6. 设置远程访问
再是一个可选步骤。但是如果你希望通过笔记本电脑远程操作,下面是一些方法。
Teamviewer 是一款屏幕分享软件。如果你安装了这一软件,并在两个机器上运行,你便可以通过你的笔记本电脑控制 Ubuntu
主机,反之亦可。这让工作变得更加方便,但是在进行屏幕分享时做所有的事情都会有一点延迟且不灵活。
SSH 和端口转发
我想要远程通过 SSH 访问我的新机器,并且和它进行互动,就好像它是我在笔记本上多了个 Tab 键一样。为了做到这一点,我在 Ubuntu 上安装了
sudo&apt-get&install&openssh-server&sudo&service&ssh&status&
之后,我将 Comcast 路由器配置到将外部通信量直接转发到我的主机。我根据 Comcast 的说明,出乎意料的是这居然管用!我通过在
www.canyouseeme.org 查看端口 22,确认了这一点。部分过程可能需要你的公共 IP 地址,你可以通过运行下面的代码找到:
dig&+short&&@&
远程笔记本
另外一个很酷的技巧就是,如果你喜欢
Jupyter,你可以在你的深度学习主机上运行你的笔记本,但是在你笔记本电脑上进行浏览和编辑。这里有关于这一技巧的一些教程
(),所以我在下面只列出了命令:
$laptop:&ssh&-l&bfortuner@DEEPLEARNINGIP&$server:&jupyter&notebook&&$laptop:&ssh&-NL&8888:localhost:8888&bfortuner@DEEPLEARNINGIP&
现在你就可以在笔记本电脑的浏览器上访问 http://localhost:8888,开始编辑你在深度学习机器上的笔记本。
【本文是51CTO专栏机构机器之心的原创文章,微信公众号&机器之心( id: almosthuman2014)&】
【编辑推荐】
【责任编辑: TEL:(010)】
大家都在看猜你喜欢
人工智能媒体与产业服务
本周排行本月排行
讲师:0人学习过
讲师:1人学习过
讲师:1人学习过小木虫 --- 600万学术达人喜爱的学术科研平台
热门搜索:
&&查看话题
做深度学习,是不是需要很高配置的计算机啊?
如题!正在做以及将要做的虫友前辈指点!
哦,那比如哪些情况需要,哪些情况不需要?
我们导师让我看大数据方向的,我想从大数据算法方向研究,是不是选题很不靠谱呢!
我是希望将深度学习用在图像处理上!&&看来咱玩不起啊!
你好,感谢您的指点!
请问你那里训练样本空间多大?& &要多大才算深度学习?
训练样本空间?是指样本个数还是特征维度?
好吧,其实我觉得这个不重要,深度学习只是一个框架,和其他机器学习方法一样,没有最少训练样本要求。训练时都是一些初级特征,数据越多它的优势越明显
肯定玩不起
大数据,很不靠谱!深度学习靠谱点。
深度学习没有大量的数据做训练样本,是不是也不行啊?
抱歉,我也没做过,只是看别人做。
学术必备与600万学术达人在线互动!
扫描下载送金币1010人阅读
GPU主机配置
作为一个深度学习的初学者,你可能会遇到这样的问题:“我该如何训练我自己或者别人的Model?”“我该如何配置一台合适的主机?”“目前有哪几种训练模型的方式?”
接下来,我将会对此进行详细的介绍,当然,这只是我个人的一些观点,如有不对的地方还希望大家能够体谅!
一、 目前有哪几种训练模型的方式?
方案一:配置一个“本地服务器”–通俗来说就是一台“高配”电脑。
优点:比较自由,不受约束。
缺点:价格昂贵,需要考虑金钱问题。(配置一台初级的深度学习主机大概需要1.5w左右,具体细节请看下文)
适用情况:
1)你本人有充足的的资金;
2)需要发表论文,多次训练自己的Model;
3)尝试运行别人的Model;
4)想要从事深度学习领域的研究;
方案二:配置一台自己的“云服务器主机”
优点:可以按照项目的需要选择合适的配置,比较灵活。
缺点:针对个人来讲,价格还是比较贵的。
适用情况:
1)由于项目的需要,需要使用到深度学习,需要训练Model;
2)初创企业
注:根据我个人的了解,当前云服务器的计费方式主要有两种:按时计费、按月计费和按年计费。国内有的公司提供了相应的GPU服务器和FPGA服务器平台,但是还处于测试阶段。详细的介绍请看下文。
方案三:配置一个“深度学习集群”
优点:更快更高效的获得自己的Model,即加快开发的效率;
缺点:对于个人来讲不太现实,一般是大公司的选择;
适用情况:
1)具有雄厚基金的大公司,如BAT等都有自己的深度学习集群平台和自己的深度学习框架;
2)深度学习领域的初创公司;以上就是3种训练Model的方式,下面我将会给出一些有用的云服务器连接,感兴趣的同学可以自己探索。
二、 我该如何配置一台自己主机呢?
要配置一台深度学习主机,你需要选择合适的CPU、GPU、内存条、固态硬盘、电源、散热、机箱、主板等(最好支持PICE,应用于多GPU的其概况下)。下面进行详细的解读:
GPU:即图像处理单元,最为一个并行处理器,起初是专门用来处理图像的,但是由于大数据的驱动,如今的它已经广泛的应用到了多个领域中,包括“深度学习”“智能驾驶”“VR”等。
由于它可以利用多个线程来进行高速的矩阵运算,而深度学习中会涉及到很多的矩阵运算。这正是它的用武之地。因此选择一个合适的GPU变得“至关重要”。
深度学习中常用的GPU包括:GTX960,GTX970,GTX1080, TiTan x,GTX1080Ti等,以上的GPU都属于GeForce系列,进行“单浮点运算”,都是一些比较新的型号具有很强的性能,按照以上的顺序性能依次提升,最主要的改变是在“架构和SM(线程个数)”方面,960,970都属于“Maxwell架构”,而后三者都是“Pascal架构”。当然他们的价格也是逐渐升高,你需要根据自己的资本选择合适的GPU。总之“一个好的GPU可以将你的训练时间从几周缩减成几天”。
如果资金充足,建议选择后三者。
CPU:作为一个高速的串行处理器,常用来作为“控制器”使用,用来发送和接收指令,解析指令等。
深度学习为什么需要CPU?期初的我也不明白原因。但是阅读了一些资料以后,我开始有了自己的见解。最主要的原因是:由于GPU内部结构的限制,使得它比较适合进行高速的并行运算,而并不适合进行快速的指令控制,而且许多的数据需要在GPU和CPU之间进行存取,这就需要用到CPU,因为这是它的强项。
总之,对于深度学习来说,对CPU的要求不是特别高,你需要记住一个原则是“你需要选择一个好的GPU,一个较好的CPU”,这样可以节约一部分成本,同时有相似的性能。
内存条:大家对它都很熟悉,主要进行CPU和外设之间的数据交换,它的存取速度要比硬盘快好几倍,但是价格比较昂贵,通常会和容量成正比。
在深度学习中,会涉及到大量的数据交换操作(例如按batch读取数据)。当然你也可以选择将数据存储在硬盘上,每次读取很小的batch块,这样你的训练周期就会非常长。常用的方案是“选择一个较大的内存,每次从硬盘中读取几个batch的数据存放在内存中,然后进行数据处理”,这样可以保证数据不间断的传输,从而高效的完成数据处理的任务。
这里还有一个不成文的规定:即你的内存大小最起码要大于你所选择的GPU的内存的大小。那个根据这个规定你很块就可以确定你可以选择的内存的容量,通常选择16GB,如果你有足够的资金,可以考虑购买一个32GB的内存,这会在训练较大的模型时展现它的优势。这里值的你去投资。
固态硬盘:作为一个“本地存储器”,它是每个电脑不可或缺的一部分。你需要在它上面存储一些重要的信息。由于其速度较慢,价格自然也比较便宜。根据市场的价格,1T的硬盘也就300多。
在深度学习中,硬盘可以用来“保存代码”“保存Model”“保存中间结果”“保存数据集”等。建议你选择一个较大容量的硬盘,通常会选择1T/2T。因为你可能会发现一般的数据集就是几个G,同时深度学习本身就是基于“大数据”的,它需要许多的数据来获得较好的性能。这也是众所周知的。一个好的方法是:“你可以利用上一些旧的硬盘,因为硬盘的扩展十分简单,这样可以节省一部分资金。”
散热:由于电子设备的运转会产生大量的热,而每个电子元件都有一个可承受的温度范围,过高或者过低的温度通常会导致元器件不能处于正常的工作状态,导致这个主机的性能变差。
由于深度学习设计到很大的计算量,通常需要几小时或者几十或者几百个小时的训练,在这期间要保证元器件的正常工作,就需要做好相应的散热措施。这样既可以保证主机的效率,同时也可以延长主机的使用寿命。
常用的散热措施主要有4种:
1)通过设置BIOS选项,具体的细节在网上搜索。
2)添加散热片。它通常由铝或铜制成,通常安装在CPU或者GPU等原件的周围或者上面。铜制品通常会有更好的散热效果。
3)添加散热风扇。如今每台台式电脑或者笔记本电脑可能都会配有一个或者多个风扇来进行扇热,正是由于风扇的原因,你通常会听到一部分噪声。
4)添加水冷。如果你是一个游戏狂热者,你可能会对它比较熟悉。它通常用在高配的游戏主机上面,不仅具有很好的散热效果,同时基本上没有什么噪声。但是它的价格会比较高。如果你的主机配置了多个GPU,强烈建议你配置水冷,这可以持续的保持你的设备处于高速的运转中。
上张帅气的水冷照片。
主板:现在应该轮到它啦。这个东西对于电子专业的人来说都很熟悉。就是一个用来组装电路的PCB板。你需要将很多个元器件组装在它上面,然后通过焊锡来连接它。
对于深度学习来讲,最重要的就是内存和PCIE的卡槽啦。它会涉及到后期的拓展。如果你后期可能会扩展你的设备,那你就需要考虑主板的可拓展性。如果你不需要进行后期的拓展,那么你可以买一个相对便宜的主板,只需要满足你当前的需求即可。为什么要强调PCIE,作为一个高速的传输接口,它常常用来设备之间的通信,例如CPU和GPU或者GPU与GPU。如果你后期可能会拓展你的GPU个数,那么建议你选择带有PCIE3.0 x8和x16接口的主板。
常用的主板有“超星微的X10SRA、C602、C612”等,总之,选择主板时需要在满足你的最低要求的同时考虑到拓展性。
机箱:欧,差点都把它给忘啦。有了以上的硬件之后,你还需要一个东西将它们组合成为一个整体,从而便于携带。哈哈,这个东西就是“机箱”。机箱上面会有各种卡槽和接口,包括硬盘、主板、电源等。
它的选择比较简单,只需要考虑硬盘和主板的尺寸即可。即要能将硬盘安装进去,这也是最低的要求啊。
好啦,以上就是你需要选择的一些设备。相信你应该明白啦。我的目目标是“让你知其然,而且知其所以然”。我更想让你知道的是为什么需要这些东西,而且说明了它们的作用,以及深度学习对它们的要求。
上几张高大上的配置服务器吧。。。
好了,以上就是我个人的一些见解,希望对大家有帮助。这个我自己原创,希望大家能支持原创。如果需要转载,需要经过我的同意。同时也欢迎大家提出问题,一起学习,一起进步。
&&相关文章推荐
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:4036次
排名:千里之外
原创:10篇

我要回帖

 

随机推荐