]> Gitweb @ Texas Instruments - Open Source Git Repositories - git.TI.com/gitweb - jacinto-ai/caffe-jacinto.git/commitdiff
cleanup whitespace
authorEvan Shelhamer <shelhamer@imaginarynumber.net>
Sun, 19 Jan 2014 22:34:12 +0000 (14:34 -0800)
committerEvan Shelhamer <shelhamer@imaginarynumber.net>
Sun, 19 Jan 2014 22:34:12 +0000 (14:34 -0800)
Makefile
Makefile.config
examples/synset_words.txt
include/caffe/syncedmem.hpp
src/caffe/test/test_blob.cpp
src/caffe/test/test_flatten_layer.cpp
src/caffe/test/test_im2col_layer.cpp
src/caffe/test/test_lrn_layer.cpp
src/caffe/test/test_neuron_layer.cpp
src/caffe/test/test_padding_layer.cpp
src/caffe/test/test_syncedmem.cpp

index f9caee11cddb5ba3407b0d9b28ac2cc6cc4a66af..9c97ce796ed6fea2bef9a7e9300872fcdda2fed9 100644 (file)
--- a/Makefile
+++ b/Makefile
@@ -90,12 +90,12 @@ PYTHON_LDFLAGS := $(LDFLAGS) $(foreach library,$(PYTHON_LIBRARIES),-l$(library))
 
 all: init $(NAME) $(STATIC_NAME) examples
        @echo $(CXX_OBJS)
 
 all: init $(NAME) $(STATIC_NAME) examples
        @echo $(CXX_OBJS)
-       
-init: 
+
+init:
        @ mkdir -p $(foreach obj,$(OBJS),$(dir $(obj)))
        @ mkdir -p $(foreach obj,$(EXAMPLE_OBJS),$(dir $(obj)))
        @ mkdir -p $(foreach obj,$(TEST_OBJS),$(dir $(obj)))
        @ mkdir -p $(foreach obj,$(OBJS),$(dir $(obj)))
        @ mkdir -p $(foreach obj,$(EXAMPLE_OBJS),$(dir $(obj)))
        @ mkdir -p $(foreach obj,$(TEST_OBJS),$(dir $(obj)))
-       @ mkdir -p $(foreach obj,$(GTEST_OBJ),$(dir $(obj)))    
+       @ mkdir -p $(foreach obj,$(GTEST_OBJ),$(dir $(obj)))
 
 linecount: clean
        cloc --read-lang-def=$(PROJECT).cloc src/$(PROJECT)/
 
 linecount: clean
        cloc --read-lang-def=$(PROJECT).cloc src/$(PROJECT)/
@@ -110,7 +110,7 @@ py: init $(STATIC_NAME) $(PY$(PROJECT)_SRC) $(PROTO_GEN_PY)
        $(CXX) -shared -o $(PY$(PROJECT)_SO) $(PY$(PROJECT)_SRC) \
                $(STATIC_NAME) $(CXXFLAGS) $(PYTHON_LDFLAGS)
        @echo
        $(CXX) -shared -o $(PY$(PROJECT)_SO) $(PY$(PROJECT)_SRC) \
                $(STATIC_NAME) $(CXXFLAGS) $(PYTHON_LDFLAGS)
        @echo
-       
+
 mat$(PROJECT): mat
 
 mat: init $(STATIC_NAME) $(MAT$(PROJECT)_SRC)
 mat$(PROJECT): mat
 
 mat: init $(STATIC_NAME) $(MAT$(PROJECT)_SRC)
@@ -119,7 +119,7 @@ mat: init $(STATIC_NAME) $(MAT$(PROJECT)_SRC)
                CXXLIBS="\$$CXXLIBS $(LDFLAGS)" \
                -o $(MAT$(PROJECT)_SO)
        @echo
                CXXLIBS="\$$CXXLIBS $(LDFLAGS)" \
                -o $(MAT$(PROJECT)_SO)
        @echo
-               
+
 $(NAME): init $(PROTO_OBJS) $(OBJS)
        $(CXX) -shared -o $(NAME) $(OBJS) $(LDFLAGS) $(WARNINGS)
        @echo
 $(NAME): init $(PROTO_OBJS) $(OBJS)
        $(CXX) -shared -o $(NAME) $(OBJS) $(LDFLAGS) $(WARNINGS)
        @echo
@@ -143,35 +143,35 @@ $(OBJS): $(PROTO_GEN_CC) $(HXX_SRCS)
 $(BUILD_DIR)/src/$(PROJECT)/%.o: src/$(PROJECT)/%.cpp
        $(CXX) $< $(CXXFLAGS) -c -o $@ $(LDFLAGS)
        @echo
 $(BUILD_DIR)/src/$(PROJECT)/%.o: src/$(PROJECT)/%.cpp
        $(CXX) $< $(CXXFLAGS) -c -o $@ $(LDFLAGS)
        @echo
-       
+
 $(BUILD_DIR)/src/$(PROJECT)/layers/%.o: src/$(PROJECT)/layers/%.cpp
        $(CXX) $< $(CXXFLAGS) -c -o $@ $(LDFLAGS)
        @echo
 $(BUILD_DIR)/src/$(PROJECT)/layers/%.o: src/$(PROJECT)/layers/%.cpp
        $(CXX) $< $(CXXFLAGS) -c -o $@ $(LDFLAGS)
        @echo
-       
+
 $(BUILD_DIR)/src/$(PROJECT)/proto/%.o: src/$(PROJECT)/proto/%.cc
        $(CXX) $< $(CXXFLAGS) -c -o $@ $(LDFLAGS)
        @echo
 $(BUILD_DIR)/src/$(PROJECT)/proto/%.o: src/$(PROJECT)/proto/%.cc
        $(CXX) $< $(CXXFLAGS) -c -o $@ $(LDFLAGS)
        @echo
-       
+
 $(BUILD_DIR)/src/$(PROJECT)/test/%.o: src/test/%.cpp
        $(CXX) $< $(CXXFLAGS) -c -o $@ $(LDFLAGS)
        @echo
 $(BUILD_DIR)/src/$(PROJECT)/test/%.o: src/test/%.cpp
        $(CXX) $< $(CXXFLAGS) -c -o $@ $(LDFLAGS)
        @echo
-       
+
 $(BUILD_DIR)/src/$(PROJECT)/util/%.o: src/$(PROJECT)/util/%.cpp
        $(CXX) $< $(CXXFLAGS) -c -o $@ $(LDFLAGS)
        @echo
 $(BUILD_DIR)/src/$(PROJECT)/util/%.o: src/$(PROJECT)/util/%.cpp
        $(CXX) $< $(CXXFLAGS) -c -o $@ $(LDFLAGS)
        @echo
-       
+
 $(BUILD_DIR)/src/gtest/%.o: src/gtest/%.cpp
        $(CXX) $< $(CXXFLAGS) -c -o $@ $(LDFLAGS)
        @echo
 $(BUILD_DIR)/src/gtest/%.o: src/gtest/%.cpp
        $(CXX) $< $(CXXFLAGS) -c -o $@ $(LDFLAGS)
        @echo
-       
+
 $(BUILD_DIR)/src/$(PROJECT)/layers/%.cuo: src/$(PROJECT)/layers/%.cu
        $(CUDA_DIR)/bin/nvcc $(NVCCFLAGS) $(CUDA_ARCH) -c $< -o $@
        @echo
 $(BUILD_DIR)/src/$(PROJECT)/layers/%.cuo: src/$(PROJECT)/layers/%.cu
        $(CUDA_DIR)/bin/nvcc $(NVCCFLAGS) $(CUDA_ARCH) -c $< -o $@
        @echo
-       
+
 $(BUILD_DIR)/src/$(PROJECT)/util/%.cuo: src/$(PROJECT)/util/%.cu
        $(CUDA_DIR)/bin/nvcc $(NVCCFLAGS) $(CUDA_ARCH) -c $< -o $@
        @echo
 $(BUILD_DIR)/src/$(PROJECT)/util/%.cuo: src/$(PROJECT)/util/%.cu
        $(CUDA_DIR)/bin/nvcc $(NVCCFLAGS) $(CUDA_ARCH) -c $< -o $@
        @echo
-       
+
 $(BUILD_DIR)/examples/%.o: examples/%.cpp
        $(CXX) $< $(CXXFLAGS) -c -o $@ $(LDFLAGS)
        @echo
 $(BUILD_DIR)/examples/%.o: examples/%.cpp
        $(CXX) $< $(CXXFLAGS) -c -o $@ $(LDFLAGS)
        @echo
@@ -187,7 +187,7 @@ $(PROTO_GEN_CC): $(PROTO_SRCS)
        mkdir -p include/$(PROJECT)/proto
        cp $(PROTO_GEN_HEADER) include/$(PROJECT)/proto/
        @echo
        mkdir -p include/$(PROJECT)/proto
        cp $(PROTO_GEN_HEADER) include/$(PROJECT)/proto/
        @echo
-       
+
 clean:
        @- $(RM) $(NAME) $(STATIC_NAME)
        @- $(RM) $(PROTO_GEN_HEADER) $(PROTO_GEN_CC) $(PROTO_GEN_PY)
 clean:
        @- $(RM) $(NAME) $(STATIC_NAME)
        @- $(RM) $(PROTO_GEN_HEADER) $(PROTO_GEN_CC) $(PROTO_GEN_PY)
index 356493a180c8d4191c783a0cdf1435636fb6d453..111bee9928077e97806c231575979f71714084fd 100644 (file)
@@ -20,4 +20,4 @@ LIBRARY_DIRS := /usr/lib /usr/local/lib
 CXX=/usr/bin/g++
 
 BUILD_DIR=build
 CXX=/usr/bin/g++
 
 BUILD_DIR=build
-DISTRIBUTE_DIR=distribute
\ No newline at end of file
+DISTRIBUTE_DIR=distribute
index 9243b0055e63743c87cffe9c016a363396419719..a9e8c7f50d144ef6034d5231709dd3545b10b69c 100644 (file)
@@ -997,4 +997,4 @@ n13044778 earthstar
 n13052670 hen-of-the-woods, hen of the woods, Polyporus frondosus, Grifola frondosa
 n13054560 bolete
 n13133613 ear, spike, capitulum
 n13052670 hen-of-the-woods, hen of the woods, Polyporus frondosus, Grifola frondosa
 n13054560 bolete
 n13133613 ear, spike, capitulum
-n15075141 toilet tissue, toilet paper, bathroom tissue
\ No newline at end of file
+n15075141 toilet tissue, toilet paper, bathroom tissue
index 4ffa6c125c90a15ba0e61fd0f0a76f6bf131704b..97688cb2a0591c60d980ea4cb950c2b59029bd2c 100644 (file)
@@ -17,7 +17,7 @@ namespace caffe {
 // problem when running on a machine without GPU. Thus, we simply define
 // these two functions for safety and possible future change if the problem
 // of calling cuda functions disappears in a future version.
 // problem when running on a machine without GPU. Thus, we simply define
 // these two functions for safety and possible future change if the problem
 // of calling cuda functions disappears in a future version.
-// 
+//
 // In practice, although we are creating unpinned memory here, as long as we
 // are constantly accessing them the memory pages almost always stays in
 // the physical memory (assuming we have large enough memory installed), and
 // In practice, although we are creating unpinned memory here, as long as we
 // are constantly accessing them the memory pages almost always stays in
 // the physical memory (assuming we have large enough memory installed), and
index ba76ed1d8047011d2dd16007c4bc65dd36cf1344..7c3084e88d204aff97b17fe085c0c0f417a3a6af 100644 (file)
@@ -11,7 +11,7 @@
 #include "caffe/test/test_caffe_main.hpp"
 
 namespace caffe {
 #include "caffe/test/test_caffe_main.hpp"
 
 namespace caffe {
-  
+
 template <typename Dtype>
 class BlobSimpleTest : public ::testing::Test {
  protected:
 template <typename Dtype>
 class BlobSimpleTest : public ::testing::Test {
  protected:
index b97e56aa995d88f4643ecb36b1d58103c659b5f3..805fd72eb5b4442e8be26885994ed577b56d58bc 100644 (file)
@@ -15,7 +15,7 @@
 namespace caffe {
 
 extern cudaDeviceProp CAFFE_TEST_CUDA_PROP;
 namespace caffe {
 
 extern cudaDeviceProp CAFFE_TEST_CUDA_PROP;
-  
+
 template <typename Dtype>
 class FlattenLayerTest : public ::testing::Test {
  protected:
 template <typename Dtype>
 class FlattenLayerTest : public ::testing::Test {
  protected:
index 65d9153f1cb56ae82b38c4fa29c60123fe4eefb0..dc6445d610624ff67aa114d39060bb4570149a8b 100644 (file)
@@ -15,7 +15,7 @@
 namespace caffe {
 
 extern cudaDeviceProp CAFFE_TEST_CUDA_PROP;
 namespace caffe {
 
 extern cudaDeviceProp CAFFE_TEST_CUDA_PROP;
-  
+
 template <typename Dtype>
 class Im2colLayerTest : public ::testing::Test {
  protected:
 template <typename Dtype>
 class Im2colLayerTest : public ::testing::Test {
  protected:
index f3fc1bdde16102a9744d7a850d8399a313f57828..757bac330734912569f8d59c9f7340d2871b83ee 100644 (file)
@@ -20,7 +20,7 @@ using std::max;
 namespace caffe {
 
 extern cudaDeviceProp CAFFE_TEST_CUDA_PROP;
 namespace caffe {
 
 extern cudaDeviceProp CAFFE_TEST_CUDA_PROP;
-  
+
 template <typename Dtype>
 class LRNLayerTest : public ::testing::Test {
  protected:
 template <typename Dtype>
 class LRNLayerTest : public ::testing::Test {
  protected:
@@ -48,7 +48,7 @@ class LRNLayerTest : public ::testing::Test {
 
 template <typename Dtype>
 void LRNLayerTest<Dtype>::ReferenceLRNForward(
 
 template <typename Dtype>
 void LRNLayerTest<Dtype>::ReferenceLRNForward(
-    const Blob<Dtype>& blob_bottom, const LayerParameter& layer_param, 
+    const Blob<Dtype>& blob_bottom, const LayerParameter& layer_param,
     Blob<Dtype>* blob_top) {
   blob_top->Reshape(blob_bottom.num(), blob_bottom.channels(),
       blob_bottom.height(), blob_bottom.width());
     Blob<Dtype>* blob_top) {
   blob_top->Reshape(blob_bottom.num(), blob_bottom.channels(),
       blob_bottom.height(), blob_bottom.width());
@@ -139,7 +139,7 @@ TYPED_TEST(LRNLayerTest, TestCPUGradient) {
   //  std::cout << "CPU diff " << this->blob_bottom_->cpu_diff()[i] << std::endl;
   //}
   checker.CheckGradientExhaustive(layer, this->blob_bottom_vec_, this->blob_top_vec_);
   //  std::cout << "CPU diff " << this->blob_bottom_->cpu_diff()[i] << std::endl;
   //}
   checker.CheckGradientExhaustive(layer, this->blob_bottom_vec_, this->blob_top_vec_);
-} 
+}
 
 TYPED_TEST(LRNLayerTest, TestGPUGradient) {
   LayerParameter layer_param;
 
 TYPED_TEST(LRNLayerTest, TestGPUGradient) {
   LayerParameter layer_param;
index 0bca34dff744c8222ac0d7964cb22834cce6799c..1abee7c51cb3dda18702d32ee5bc2bdc5da529c6 100644 (file)
@@ -15,7 +15,7 @@
 namespace caffe {
 
 extern cudaDeviceProp CAFFE_TEST_CUDA_PROP;
 namespace caffe {
 
 extern cudaDeviceProp CAFFE_TEST_CUDA_PROP;
-  
+
 template <typename Dtype>
 class NeuronLayerTest : public ::testing::Test {
  protected:
 template <typename Dtype>
 class NeuronLayerTest : public ::testing::Test {
  protected:
index bb47e3559d4d10fa020925dee1ace49be8199cb3..da48111a66dd819e4bf47400bf0367fd2c4dd72e 100644 (file)
@@ -15,7 +15,7 @@
 namespace caffe {
 
 extern cudaDeviceProp CAFFE_TEST_CUDA_PROP;
 namespace caffe {
 
 extern cudaDeviceProp CAFFE_TEST_CUDA_PROP;
-  
+
 template <typename Dtype>
 class PaddingLayerTest : public ::testing::Test {
  protected:
 template <typename Dtype>
 class PaddingLayerTest : public ::testing::Test {
  protected:
index 216dc87305f19a307a8ad16f4e49b6c7bc753726..b8347107b73d7b54967177f411d3d8ce7ba07f19 100644 (file)
@@ -46,7 +46,7 @@ TEST_F(SyncedMemoryTest, TestCPUWrite) {
   for (int i = 0; i < mem.size(); ++i) {
     EXPECT_EQ(((char*)recovered_value)[i], 1);
   }
   for (int i = 0; i < mem.size(); ++i) {
     EXPECT_EQ(((char*)recovered_value)[i], 1);
   }
-  // do another round 
+  // do another round
   cpu_data = mem.mutable_cpu_data();
   EXPECT_EQ(mem.head(), SyncedMemory::HEAD_AT_CPU);
   memset(cpu_data, 2, mem.size());
   cpu_data = mem.mutable_cpu_data();
   EXPECT_EQ(mem.head(), SyncedMemory::HEAD_AT_CPU);
   memset(cpu_data, 2, mem.size());
@@ -73,7 +73,7 @@ TEST_F(SyncedMemoryTest, TestGPUWrite) {
     EXPECT_EQ(((char*)cpu_data)[i], 1);
   }
   EXPECT_EQ(mem.head(), SyncedMemory::SYNCED);
     EXPECT_EQ(((char*)cpu_data)[i], 1);
   }
   EXPECT_EQ(mem.head(), SyncedMemory::SYNCED);
-  
+
   gpu_data = mem.mutable_gpu_data();
   EXPECT_EQ(mem.head(), SyncedMemory::HEAD_AT_GPU);
   CUDA_CHECK(cudaMemset(gpu_data, 2, mem.size()));
   gpu_data = mem.mutable_gpu_data();
   EXPECT_EQ(mem.head(), SyncedMemory::HEAD_AT_GPU);
   CUDA_CHECK(cudaMemset(gpu_data, 2, mem.size()));