cleanup, compile warnings, zapq uses raw qpop
authorDavid Lide <a0216552@gtudci01.(none)>
Tue, 19 Jun 2012 15:51:57 +0000 (11:51 -0400)
committerDavid Lide <a0216552@gtudci01.(none)>
Tue, 19 Jun 2012 15:51:57 +0000 (11:51 -0400)
ti/runtime/netapi/netapi.h
ti/runtime/netapi/src/netapi.c
ti/runtime/netapi/src/osal.c
ti/runtime/netapi/src/pktio.c

index 903e42f71758dce54a472b4fca5480f12943e566..98aa13407dbd2289859c60cd607b321b92209e9d 100755 (executable)
@@ -141,6 +141,17 @@ typedef struct NETAPI_CFG_Tag
    for default RX flow,  for rx packet, the bufptr  will be def_flow_pkt_rx_offset.
    for detault RX flow,  threshold (ie max # of bytes in buffer) will be:
        def_heap_buf_size - def_heap_tailroom_size-def_flow_pkt_rx_offset
+
+Origbuffptr
+|
+\/
+|------------orig_buf_len---------------.----|----extra_size---|
+|…rx_offset…..|……………buf_len…………..| def_tail--|----extra  size-.|
+                           ^
+                           |
+                       buffPtr
+
+
 */
 
 
index 1d9610070ecb30b3fe54c638ac564a374a9b4e59..37fc459ad22b56ebe1bf2d31abd7be88fce9348a 100755 (executable)
@@ -388,7 +388,7 @@ if (!queueNum) return;
 for (i=0;;i+=1 )
         {
                 /* Pop descriptor from source queue */
-                if ((descPtr = (char *)Qmss_queuePop (queueNum)) == NULL)
+                if ((descPtr = (char *)PKTIO_QMSS_QUEUE_POP_RAW  (queueNum)) == NULL)
                 {
                         break;
                 }
index 98d695e94aeff035572184cddea459800ad5d78e..8a8b175b14f8a6eae0d6c5728a9f4b15ebb4efc8 100755 (executable)
@@ -258,7 +258,7 @@ static inline void Osal_writeBackCache (void *blockPtr, uint32_t size)
     register unsigned int v2;
      
     v1= netapi_timing_stop();
-    if ((blockPtr <netapi_VM_mem_start)||( blockPtr>netapi_VM_mem_end)) return;
+    if (((uint8_t*)blockPtr <netapi_VM_mem_start)||( (uint8_t*)blockPtr>netapi_VM_mem_end)) return;
     //netapi_utilCacheWbInv(blockPtr, size);
     //printf("osal> wbiv %x %x %d ..",  blockPtr, Osal_saGetSCPhyAddr(blockPtr), size);
     _netapi_utilCacheWbInv(blockPtr, size);
index 12f697b874be70e6cae4823ec703ba24f2f9118b..f196c45a8a7dcd6c21b7ca1239eb482e2f584d2b 100755 (executable)
@@ -96,8 +96,9 @@ static PKTIO_HANDLE_T * pktiop_get_free_channel_slot(NETAPI_T n)
 //********************************************
 //send pkt via ipc queue 
 //********************************************
-static int pktio_send_ipc(PKTIO_HANDLE_T * p, Ti_Pkt *pkt, PKTIO_METADATA_T *m, int * err)
+static int pktio_send_ipc(struct PKTIO_HANDLE_tag * pp, Ti_Pkt *pkt, PKTIO_METADATA_T *m, int * err)
 {
+        PKTIO_HANDLE_T *p=(PKTIO_HANDLE_T*) pp;
         *err=0;
 #ifdef DO_BENCH
         vv8p=netapi_timing_stop();
@@ -115,8 +116,9 @@ static int pktio_send_ipc(PKTIO_HANDLE_T * p, Ti_Pkt *pkt, PKTIO_METADATA_T *m,
 //********************************************
 //send pkt to NETCP via NWAL
 //********************************************
-static int pktio_send_nwal(PKTIO_HANDLE_T * p, Ti_Pkt *pkt, PKTIO_METADATA_T *m, int * err)
+static int pktio_send_nwal(struct PKTIO_HANDLE_tag * pp, Ti_Pkt *pkt, PKTIO_METADATA_T *m, int * err)
 {
+        PKTIO_HANDLE_T *p=(PKTIO_HANDLE_T*) pp;
         nwalTxPktInfo_t * pPktInfo=m->u.tx_meta;
         nwal_RetValue res;
        *err=0;
@@ -134,8 +136,9 @@ static int pktio_send_nwal(PKTIO_HANDLE_T * p, Ti_Pkt *pkt, PKTIO_METADATA_T *m,
 //********************************************
 //send to SA via SB queue
 //********************************************
-static int pktio_send_sb(PKTIO_HANDLE_T * p, Ti_Pkt *pkt, PKTIO_METADATA_T *m, int * err)
+static int pktio_send_sb(struct PKTIO_HANDLE_tag * pp, Ti_Pkt *pkt, PKTIO_METADATA_T *m, int * err)
 {
+        PKTIO_HANDLE_T *p=(PKTIO_HANDLE_T*) pp;
         nwalDmTxPayloadInfo_t *pPktInfoSB =  m->u.tx_sb_meta;
         nwal_RetValue res;
        *err=0;
@@ -147,7 +150,7 @@ static int pktio_send_sb(PKTIO_HANDLE_T * p, Ti_Pkt *pkt, PKTIO_METADATA_T *m, i
 //********************************************
 //dummy.  return err
 //********************************************
-static int pktio_send_dummy(PKTIO_HANDLE_T * p, Ti_Pkt *pkt, PKTIO_METADATA_T *m, int * err)
+static int pktio_send_dummy(struct PKTIO_HANDLE_tag * p, Ti_Pkt *pkt, PKTIO_METADATA_T *m, int * err)
 {
        *err =  NETAPI_ERR_BAD_INPUT;
        return -1;
@@ -155,7 +158,7 @@ static int pktio_send_dummy(PKTIO_HANDLE_T * p, Ti_Pkt *pkt, PKTIO_METADATA_T *m
 //*******************************************
 //dummy poll
 //*******************************************
-static int pktio_poll_dummy(PKTIO_HANDLE_T * p, PKTIO_POLL_T * p_poll_cfg,  int * err)
+static int pktio_poll_dummy(struct PKTIO_HANDLE_tag * p, PKTIO_POLL_T * p_poll_cfg,  int * err)
 {
        *err= NETAPI_ERR_BAD_INPUT;
        return 0;
@@ -163,10 +166,11 @@ static int pktio_poll_dummy(PKTIO_HANDLE_T * p, PKTIO_POLL_T * p_poll_cfg,  int
 //********************************************
 //poll IPC queue
 //********************************************
-static int pktio_poll_ipc(PKTIO_HANDLE_T * p, PKTIO_POLL_T * p_poll_cfg,  int * err)
+static int pktio_poll_ipc(struct PKTIO_HANDLE_tag * pp, PKTIO_POLL_T * p_poll_cfg,  int * err)
 {
 Ti_Pkt * pkt_list[PKTIO_MAX_RECV];
 PKTIO_METADATA_T meta_s[PKTIO_MAX_RECV];
+PKTIO_HANDLE_T *p=(PKTIO_HANDLE_T*) pp;
 int r=0;
 int n;
 Ti_Pkt * temp;
@@ -196,9 +200,10 @@ for(r=0;r<n;r++)
 //********************************************
 //poll nwal data queues for pkts from netcp
 //********************************************
-static int pktio_poll_nwal(PKTIO_HANDLE_T * p, PKTIO_POLL_T * p_poll_cfg,  int * err)
+static int pktio_poll_nwal(struct PKTIO_HANDLE_tag * pp, PKTIO_POLL_T * p_poll_cfg,  int * err)
 {
 int r=0;
+PKTIO_HANDLE_T *p=(PKTIO_HANDLE_T*) pp;
 *err=0;
         /* Poll for common L2/L3 packets and L4 class pkts (todo-> only do L4 if classifiers are
          set.. optimizaion maybe? */
@@ -216,9 +221,10 @@ int r=0;
 //********************************************
 //poll nwal sideband queues for pkts from SA
 //********************************************
-static int  pktio_poll_sb(PKTIO_HANDLE_T * p, PKTIO_POLL_T * p_poll_cfg,  int * err)
+static int  pktio_poll_sb(struct PKTIO_HANDLE_tag * pp, PKTIO_POLL_T * p_poll_cfg,  int * err)
 {
 int r=0;
+PKTIO_HANDLE_T *p=(PKTIO_HANDLE_T*) pp;
 *err=0;
       r=nwal_pollDm(p->nwalInstanceHandle,
                     nwal_POLL_DM_DEF_GLOB_ENCRYPT_Q,
@@ -238,9 +244,10 @@ int r=0;
 //********************************************
 //poll app-provided netcp rx queue
 //********************************************
-static int pktio_poll_nwal_adj(PKTIO_HANDLE_T * p, PKTIO_POLL_T * p_poll_cfg,  int * err)
+static int pktio_poll_nwal_adj(struct PKTIO_HANDLE_tag * pp, PKTIO_POLL_T * p_poll_cfg,  int * err)
 {
 int r=0;
+PKTIO_HANDLE_T *p=(PKTIO_HANDLE_T*) pp;
 *err=0;
         /* Poll for common L2/L3 packets and L4 class pkts (todo-> only do L4 if classifiers are
          set.. optimizaion maybe? */
@@ -259,9 +266,10 @@ int r=0;
 //********************************************
 //poll app-defined sideband queues for pkts from SA
 //********************************************
-static int  pktio_poll_sb_adj(PKTIO_HANDLE_T * p, PKTIO_POLL_T * p_poll_cfg,  int * err)
+static int  pktio_poll_sb_adj(struct PKTIO_HANDLE_tag * pp, PKTIO_POLL_T * p_poll_cfg,  int * err)
 {
 int r=0;
+PKTIO_HANDLE_T *p=(PKTIO_HANDLE_T*) pp;
 *err=0;
       r=nwal_pollDm(p->nwalInstanceHandle,
                      nwal_POLL_DM_APP_MANAGED_Q,