]> Gitweb @ Texas Instruments - Open Source Git Repositories - git.TI.com/gitweb - ti-machine-learning/ti-machine-learning.git/blob - src/common/cnn/timlCNNNonlinearInitialize.c
update the version number
[ti-machine-learning/ti-machine-learning.git] / src / common / cnn / timlCNNNonlinearInitialize.c
1 /******************************************************************************/
2 /*!
3  * \file timlCNNNonlinearInitialize.c
4  */
5 /* Copyright (C) 2015 Texas Instruments Incorporated - http://www.ti.com/
6  *
7  * Redistribution and use in source and binary forms, with or without
8  * modification, are permitted provided that the following conditions
9  * are met:
10  *
11  *    Redistributions of source code must retain the above copyright
12  *    notice, this list of conditions and the following disclaimer.
13  *
14  *    Redistributions in binary form must reproduce the above copyright
15  *    notice, this list of conditions and the following disclaimer in the
16  *    documentation and/or other materials provided with the
17  *    distribution.
18  *
19  *    Neither the name of Texas Instruments Incorporated nor the names of
20  *    its contributors may be used to endorse or promote products derived
21  *    from this software without specific prior written permission.
22  *
23  * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
24  * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
25  * LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR
26  * A PARTICULAR PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT
27  * OWNER OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
28  * SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT
29  * LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
30  * DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
31  * THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
32  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
33  * OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
34  *
35  ******************************************************************************/
38 /*******************************************************************************
39  *
40  * INCLUDES
41  *
42  ******************************************************************************/
44 #include "../api/timl.h"
47 /******************************************************************************/
48 /*!
49  * \ingroup   cnn
50  * \brief     Initialize the nonlinear layer
51  * \param[in] layer Layer ptr
52  * \return    Error code
53  */
54 /******************************************************************************/
56 int timlCNNNonlinearInitialize(timlCNNLayer *layer)
57 {
58    timlConvNeuralNetwork *cnn = layer->cnn;
59    if (layer->allocatorLevel == Util_AllocatorLevel1) {
60       // allocate feature map
61       if (timlUtilMallocAcc((void**) &(layer->featureMap), sizeof(float)*layer->maxBatchSize*layer->row*layer->col*layer->channel) != 0) {
62          return ERROR_CNN_LAYER_ALLOCATION;
63       }
64       // allocate feature map delta
65       if (timlUtilMallocAcc((void**) &(layer->delta), sizeof(float)*layer->maxBatchSize*layer->row*layer->col*layer->channel) != 0) {
66          return ERROR_CNN_LAYER_ALLOCATION;
67       }
68       // allocate feature map derivative
69       if (timlUtilMallocAcc((void**) &(layer->nonlinearParams.derivative), sizeof(float)*layer->maxBatchSize*layer->row*layer->col*layer->channel) != 0) {
70          return ERROR_CNN_LAYER_ALLOCATION;
71       }
72    }
74    if (layer->allocatorLevel == Util_AllocatorLevel2) {
75       // allocate feature map
76       if (timlUtilMallocAcc((void**) &(layer->featureMap), sizeof(float)*layer->maxBatchSize*layer->row*layer->col*layer->channel) != 0) {
77          return ERROR_CNN_LAYER_ALLOCATION;
78       }
79    }
81    if (layer->allocatorLevel == Util_AllocatorLevel3) {
82       layer->featureMap = layer->prev->featureMap;
83       layer->memPoolPos = layer->prev->memPoolPos;
84    }
86    return 0;
87 }