青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品

我要啦免费统计

from http://docs.continuum.io/anaconda-cluster/examples/spark-caffe

Deep Learning (Spark, Caffe, GPU)

Description

To demonstrate the capability of running a distributed job in PySpark using a GPU, this example uses a neural network library, Caffe. Below is a trivial example of using Caffe on a Spark cluster; although this is redundant, it demonstrates the capability of training neural networks with GPUs.

For this example, we recommend the use of the AMI ami-2cbf3e44 and the instance type g2.2xlarge. An example profile (to be placed in ~/.acluster/profiles.d/gpu_profile.yaml) is shown below:

name: gpu_profile
node_id: ami-2cbf3e44 # Ubuntu 14.04 - IS HVM - Cuda 6.5
user: ubuntu
node_type: g2.2xlarge
num_nodes: 3
provider: aws
plugins:
  - spark-yarn
  - notebook

Download

To execute this example, download the: spark-caffe.py example script or spark-caffe.ipynbexample notebook.

Installation

The Spark + YARN plugin can be installed on the cluster using the following command:

$ acluster install spark-yarn

Once the Spark + YARN plugin is installed, you can view the YARN UI in your browser using the following command:

$ acluster open yarn

Dependencies

First, we need to bootstrap Caffe and its dependencies on all of the nodes. We provide a bash script that will install Caffe from source: bootstrap-caffe.sh. The following command can be used to upload the bootstrap-caffe.sh script to all of the nodes and execute it in parallel:

$ acluster submit bootstrap-caffe.sh --all

After a few minues, Caffe and its dependencies will be installed on the cluster nodes and the job can be started.

Running the Job

Here is the complete script to run the Spark + GPU with Caffe example in PySpark:

# spark-caffe.py from pyspark import SparkConf from pyspark import SparkContext  conf = SparkConf() conf.setMaster('yarn-client') conf.setAppName('spark-caffe') sc = SparkContext(conf=conf)   def noop(x):     import socket     return socket.gethostname()  rdd = sc.parallelize(range(2), 2) hosts = rdd.map(noop).distinct().collect() print hosts   def caffe_process(x):     import os     os.environ['PATH'] = '/usr/local/cuda/bin' + ':' + os.environ['PATH']     os.environ['LD_LIBRARY_PATH'] = '/usr/local/cuda/lib64:/home/ubuntu/pombredanne-https-gitorious.org-mdb-mdb.git-9cc04f604f80/libraries/liblmdb'     import subprocess     proc = subprocess.Popen('cd /home/ubuntu/caffe && bash ./examples/mnist/train_lenet.sh', shell=True, stdout=subprocess.PIPE, stderr=subprocess.PIPE)     out, err = proc.communicate()     return proc.returncode, out, err  rdd = sc.parallelize(range(2), 2) ret = rdd.map(caffe_process).distinct().collect() print ret 

You can submit the script to the Spark cluster using the submit command.

$ acluster submit spark-caffe.py 

After the script completes, the trained Caffe model can be found at/home/ubuntu/caffe/examples/mnist/lenet_iter_10000.caffemodel on all of the compute nodes.

posted on 2015-10-14 17:25 閱讀(3653) 評(píng)論(1)  編輯 收藏 引用 所屬分類: life 、關(guān)于人工智能的yy

評(píng)論:
# re: Deep Learning (Spark, Caffe, GPU) 2015-10-21 18:19 | 春秋十二月
這是啥  回復(fù)  更多評(píng)論
  
青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品
  • <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            美女精品在线观看| 亚洲日韩欧美一区二区在线| 久久综合给合| 久久亚洲国产精品一区二区| 亚洲福利精品| 亚洲欧美综合国产精品一区| 一区二区三区视频在线看| 国产精品美女视频网站| 久久不见久久见免费视频1| 久久久999| 日韩五码在线| 久久久国产午夜精品| 欧美精品导航| 欧美日韩天天操| 午夜精品www| 久久久久国产精品厨房| 亚洲美女视频在线观看| 亚洲天堂男人| 在线观看国产精品网站| 亚洲激情不卡| 欧美午夜精品久久久久久人妖| 欧美一区二区视频免费观看| 久久伊人免费视频| 亚洲一级黄色片| 久久精品视频免费播放| 99精品热视频| 欧美在线国产精品| 亚洲乱码精品一二三四区日韩在线 | 欧美xart系列高清| 欧美日韩一区二区三区在线观看免 | 久久免费国产精品| 一区二区三区成人精品| 性色一区二区| 日韩亚洲欧美成人一区| 欧美一区二区三区在线看| 亚洲日本中文字幕| 亚洲一区欧美激情| 欧美在线免费观看视频| 99国产精品自拍| 欧美一级片久久久久久久| 亚洲精品视频二区| 欧美一级片一区| 一区二区三区欧美日韩| 久久精品一区四区| 亚洲一区二区三区免费观看| 久久另类ts人妖一区二区| 亚洲一区一卡| 欧美成人激情视频| 久久精品一区二区三区不卡| 欧美日韩国产一区二区三区| 蜜桃av一区二区三区| 国产精品区一区二区三区| 欧美激情视频网站| 国产网站欧美日韩免费精品在线观看 | 久久人人97超碰人人澡爱香蕉| 欧美日本国产| 欧美成人r级一区二区三区| 国产精品人成在线观看免费| 欧美夜福利tv在线| 欧美日韩国产黄| 欧美高清免费| 国内精品**久久毛片app| 在线亚洲一区| 亚洲精品一区中文| 久久久夜夜夜| 久久国产精品久久久久久电车| 亚洲午夜高清视频| 国产偷久久久精品专区| 亚洲私人黄色宅男| aⅴ色国产欧美| 免费亚洲一区| 免费观看在线综合色| 国产日韩欧美精品在线| 亚洲婷婷综合久久一本伊一区| 亚洲日本理论电影| 久久在线免费观看视频| 久久久久国产免费免费| 国产精品一区二区欧美| 99热免费精品在线观看| 亚洲美女啪啪| 欧美成人免费全部| 欧美成人官网二区| 一区二区视频免费在线观看 | 欧美大片一区二区三区| 欧美高清在线| 亚洲欧美在线播放| 欧美色视频在线| 欧美一区二区三区在| 欧美午夜精品| 9色porny自拍视频一区二区| 日韩视频免费| 欧美精品国产精品日韩精品| 欧美黄色片免费观看| 在线日本成人| 久久先锋资源| 免费欧美在线视频| 久久激情五月婷婷| 欧美在线不卡| 国产亚洲二区| 欧美一区观看| 久久久噜噜噜| 国语自产在线不卡| 久久超碰97人人做人人爱| 久久精品一区二区| 韩国亚洲精品| 久久人人97超碰精品888| 美女黄毛**国产精品啪啪 | 亚洲激情一区二区| 免费在线看一区| 亚洲高清一区二区三区| 亚洲精品裸体| 欧美日本久久| av成人免费| 性久久久久久久久久久久| 国产精品亚洲欧美| 欧美一级成年大片在线观看| 久久久久久久网站| 亚洲成人在线观看视频| 这里只有精品电影| 午夜精品美女久久久久av福利| 国产精品爽黄69| 性欧美大战久久久久久久免费观看| 久久久99久久精品女同性| 韩国福利一区| 免费中文日韩| 9i看片成人免费高清| 午夜精品免费视频| 国产在线高清精品| 久久久久9999亚洲精品| 国内视频一区| 免费在线看一区| 一本色道久久综合亚洲91| 欧美一区二区大片| 影音先锋亚洲电影| 欧美岛国激情| 亚洲私人影院| 麻豆精品视频| 日韩一区二区久久| 国产精品五区| 久久精品国产免费| 亚洲国产日韩在线| 亚洲欧美日韩天堂| 狠狠v欧美v日韩v亚洲ⅴ| 欧美大片在线看免费观看| 中文av字幕一区| 久久日韩粉嫩一区二区三区| 亚洲精品久久久一区二区三区| 欧美视频中文在线看| 欧美一区二区日韩一区二区| 亚洲成人在线视频播放| 国产乱肥老妇国产一区二 | 嫩草国产精品入口| 久久久亚洲欧洲日产国码αv| 亚洲国产精品悠悠久久琪琪| 欧美日韩视频在线| 欧美在线三级| 亚洲精品看片| 久久激情网站| 日韩一级视频免费观看在线| 国产欧美一区二区三区在线老狼 | 午夜精品久久| 在线观看久久av| 欧美特黄一区| 久久亚洲综合色| 亚洲天堂av在线免费观看| 噜噜噜久久亚洲精品国产品小说| 一本一本久久| 狠狠入ady亚洲精品| 欧美日韩亚洲激情| 久久久999成人| 亚洲图片欧美一区| 亚洲高清资源| 久久精品国产99国产精品澳门| 亚洲美女啪啪| 精品动漫av| 国产精品日韩一区二区| 免费视频久久| 欧美有码视频| 一本一本大道香蕉久在线精品| 蜜桃av综合| 久久riav二区三区| 一区二区三区偷拍| 亚洲国产精品成人精品| 久久人人97超碰精品888| 亚洲一区二区少妇| 欧美一级片久久久久久久 | 免费日韩av电影| 亚洲综合视频1区| 亚洲精品资源美女情侣酒店| 久久一区免费| 欧美一二区视频| 亚洲亚洲精品在线观看 | 亚洲东热激情| 亚洲无限av看| 亚洲精品视频在线| 狠狠操狠狠色综合网| 国产精品一二三视频| 欧美日韩精品系列| 欧美a级片一区| 久久久精彩视频|