青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品

我要啦免费统计

from http://docs.continuum.io/anaconda-cluster/examples/spark-caffe

Deep Learning (Spark, Caffe, GPU)

Description

To demonstrate the capability of running a distributed job in PySpark using a GPU, this example uses a neural network library, Caffe. Below is a trivial example of using Caffe on a Spark cluster; although this is redundant, it demonstrates the capability of training neural networks with GPUs.

For this example, we recommend the use of the AMI ami-2cbf3e44 and the instance type g2.2xlarge. An example profile (to be placed in ~/.acluster/profiles.d/gpu_profile.yaml) is shown below:

name: gpu_profile
node_id: ami-2cbf3e44 # Ubuntu 14.04 - IS HVM - Cuda 6.5
user: ubuntu
node_type: g2.2xlarge
num_nodes: 3
provider: aws
plugins:
  - spark-yarn
  - notebook

Download

To execute this example, download the: spark-caffe.py example script or spark-caffe.ipynbexample notebook.

Installation

The Spark + YARN plugin can be installed on the cluster using the following command:

$ acluster install spark-yarn

Once the Spark + YARN plugin is installed, you can view the YARN UI in your browser using the following command:

$ acluster open yarn

Dependencies

First, we need to bootstrap Caffe and its dependencies on all of the nodes. We provide a bash script that will install Caffe from source: bootstrap-caffe.sh. The following command can be used to upload the bootstrap-caffe.sh script to all of the nodes and execute it in parallel:

$ acluster submit bootstrap-caffe.sh --all

After a few minues, Caffe and its dependencies will be installed on the cluster nodes and the job can be started.

Running the Job

Here is the complete script to run the Spark + GPU with Caffe example in PySpark:

# spark-caffe.py from pyspark import SparkConf from pyspark import SparkContext  conf = SparkConf() conf.setMaster('yarn-client') conf.setAppName('spark-caffe') sc = SparkContext(conf=conf)   def noop(x):     import socket     return socket.gethostname()  rdd = sc.parallelize(range(2), 2) hosts = rdd.map(noop).distinct().collect() print hosts   def caffe_process(x):     import os     os.environ['PATH'] = '/usr/local/cuda/bin' + ':' + os.environ['PATH']     os.environ['LD_LIBRARY_PATH'] = '/usr/local/cuda/lib64:/home/ubuntu/pombredanne-https-gitorious.org-mdb-mdb.git-9cc04f604f80/libraries/liblmdb'     import subprocess     proc = subprocess.Popen('cd /home/ubuntu/caffe && bash ./examples/mnist/train_lenet.sh', shell=True, stdout=subprocess.PIPE, stderr=subprocess.PIPE)     out, err = proc.communicate()     return proc.returncode, out, err  rdd = sc.parallelize(range(2), 2) ret = rdd.map(caffe_process).distinct().collect() print ret 

You can submit the script to the Spark cluster using the submit command.

$ acluster submit spark-caffe.py 

After the script completes, the trained Caffe model can be found at/home/ubuntu/caffe/examples/mnist/lenet_iter_10000.caffemodel on all of the compute nodes.

posted on 2015-10-14 17:25 閱讀(3635) 評論(1)  編輯 收藏 引用 所屬分類: life關(guān)于人工智能的yy

評論:
# re: Deep Learning (Spark, Caffe, GPU) 2015-10-21 18:19 | 春秋十二月
這是啥  回復(fù)  更多評論
  
青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品
  • <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            欧美人交a欧美精品| 欧美黑人在线观看| 国产美女一区| 欧美在线三级| 久久久久一区| 一区二区欧美日韩| 亚洲手机在线| 激情自拍一区| 亚洲国产一区二区三区在线播| 欧美freesex交免费视频| 日韩一区二区福利| 亚洲视频在线观看网站| 国产色综合久久| 免费欧美高清视频| 欧美日韩在线视频观看| 欧美影院视频| 免费久久99精品国产自| 日韩一级片网址| 欧美亚洲一级片| 亚洲美女电影在线| 亚洲一区免费视频| 亚洲黑丝一区二区| 亚洲一区二区欧美| 亚洲高清精品中出| 亚洲午夜一级| 亚洲精品乱码久久久久久黑人| 亚洲天天影视| 亚洲日本一区二区三区| 亚洲一区二区三区四区在线观看 | 激情成人av在线| 日韩五码在线| 精品福利av| 亚洲综合久久久久| 亚洲伦理精品| 久久精品久久99精品久久| 在线综合视频| 欧美成人久久| 久久这里有精品视频| 国产精品va在线播放| 欧美高清视频免费观看| 国产精品揄拍500视频| 亚洲另类自拍| 亚洲黄色免费电影| 久久国产精品99国产| 亚洲一卡二卡三卡四卡五卡| 美女视频黄 久久| 久久精品国产一区二区三| 欧美三级视频| 日韩午夜电影av| 亚洲乱码久久| 欧美中文字幕在线视频| 国产精品区一区二区三| 在线日韩视频| 香蕉视频成人在线观看 | 欧美电影在线免费观看网站| 久久久久久网址| 国产麻豆精品久久一二三| 亚洲精品自在久久| 99精品视频一区二区三区| 女女同性精品视频| 欧美成人中文| 最新国产成人av网站网址麻豆| 欧美在线视频全部完| 久久精品在线视频| 国产午夜精品美女视频明星a级| 亚洲香蕉成视频在线观看| 亚洲欧美日韩国产一区| 欧美午夜在线观看| 一本色道久久综合亚洲精品小说| 99国产精品久久久| 欧美日韩一区二区三区高清| 亚洲精品免费电影| 国产精品99久久久久久白浆小说 | 噜噜噜91成人网| 欧美激情麻豆| 一区二区精品在线| 国产精品啊v在线| 亚洲欧美精品在线| 欧美在线一级视频| 国产一区亚洲一区| 久久午夜视频| 亚洲三级影片| 欧美一区二区三区四区高清| 国产综合网站| 欧美高清视频一区二区| 亚洲精品五月天| 欧美中文字幕在线观看| 激情视频一区二区| 欧美大尺度在线观看| 一区二区三区回区在观看免费视频| 午夜亚洲性色视频| 亚洲成色www久久网站| 欧美精品18+| 欧美在线不卡| 亚洲日本中文字幕| 欧美在线影院| 亚洲精品一区二区三区福利| 国产精品v欧美精品v日本精品动漫| 欧美一区二区三区婷婷月色| 欧美风情在线观看| 午夜精品在线看| 亚洲国产美女| 国产一区二区观看| 欧美全黄视频| 久久久久久久久综合| 99精品欧美一区二区蜜桃免费| 久久久国际精品| 亚洲手机成人高清视频| 一区二区在线视频播放| 欧美日韩在线不卡| 久久五月激情| 午夜在线不卡| 99国产一区| 亚洲国产欧美日韩精品| 久久国产精品久久国产精品 | 国内成+人亚洲+欧美+综合在线| 欧美成va人片在线观看| 欧美一级片一区| av成人免费| 亚洲区免费影片| 欧美 日韩 国产在线 | 亚洲精品乱码久久久久久| 国产日韩精品一区观看| 欧美日韩综合视频网址| 欧美jizzhd精品欧美巨大免费| 午夜亚洲影视| 亚洲一区在线观看免费观看电影高清| 亚洲大片精品永久免费| 久久亚洲图片| 久久久亚洲一区| 欧美有码视频| 欧美伊人久久久久久久久影院| 亚洲一区二区高清视频| 亚洲最快最全在线视频| 亚洲乱码久久| 亚洲精品免费网站| 亚洲经典一区| 亚洲国内精品在线| 亚洲国产视频一区| 亚洲第一视频网站| 在线看日韩av| 亚洲国产精品视频一区| 尤物网精品视频| 91久久国产综合久久91精品网站 | 欧美区亚洲区| 欧美日韩第一页| 欧美系列一区| 国产拍揄自揄精品视频麻豆| 国产精品久久久久99| 国产精品欧美日韩| 国产亚洲电影| 在线观看视频日韩| 亚洲日本中文字幕区| 99ri日韩精品视频| 亚洲视频在线观看视频| 亚洲欧美视频一区二区三区| 欧美一区二区视频在线| 久久国产精品一区二区| 久久在线免费观看| 欧美高清影院| 夜夜嗨av一区二区三区四季av | 日韩亚洲欧美成人一区| 一本色道综合亚洲| 亚洲免费在线视频| 久久久久.com| 欧美精品久久一区二区| 国产精品久久久久久影院8一贰佰| 国产精品婷婷午夜在线观看| 国产综合久久久久影院| 91久久久在线| 午夜在线成人av| 欧美华人在线视频| 99riav久久精品riav| 性欧美大战久久久久久久免费观看| 久久久久免费观看| 欧美日韩美女一区二区| 国产视频一区二区三区在线观看| 亚洲电影网站| 亚洲免费影院| 欧美激情综合| 午夜精品免费视频| 欧美成人午夜激情| 国产日韩专区在线| 亚洲精品一区二区三区婷婷月| 午夜精彩国产免费不卡不顿大片| 噜噜噜91成人网| 亚洲视频免费看| 欧美成人在线免费视频| 国产精品一区二区三区久久久| 亚洲福利国产精品| 午夜在线成人av| 亚洲精品国产视频| 久久国产一区二区三区| 欧美三区美女| 最新国产乱人伦偷精品免费网站 | 亚洲国产裸拍裸体视频在线观看乱了中文 | 午夜国产不卡在线观看视频| 欧美国产在线电影| 国内视频一区| 久久se精品一区二区|