taglinefilesource code
sk_buff123drivers/net/3c501.cstatic int  el_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff334drivers/net/3c501.cel_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff556drivers/net/3c501.cstruct sk_buff *skb;
sk_buff74drivers/net/3c503.cstatic void el2_block_input(struct device *dev, int count, struct sk_buff *skb,
sk_buff451drivers/net/3c503.cel2_block_input(struct device *dev, int count, struct sk_buff *skb, int ring_offset)
sk_buff555drivers/net/3c505.cstruct sk_buff *skb;
sk_buff1005drivers/net/3c505.celp_start_xmit (struct sk_buff *skb, struct device *dev)
sk_buff287drivers/net/3c507.cstatic int  el16_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff458drivers/net/3c507.cel16_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff850drivers/net/3c507.cstruct sk_buff *skb;
sk_buff106drivers/net/3c509.cstatic int el3_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff390drivers/net/3c509.cel3_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff604drivers/net/3c509.cstruct sk_buff *skb;
sk_buff137drivers/net/8390.cstatic int ei_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff464drivers/net/8390.cstruct sk_buff *skb;
sk_buff52drivers/net/8390.hvoid (*block_input)(struct device *, int, struct sk_buff *, int);
sk_buff77drivers/net/ac3200.cstruct sk_buff *skb, int ring_offset);
sk_buff259drivers/net/ac3200.cstatic void ac_block_input(struct device *dev, int count, struct sk_buff *skb,
sk_buff51drivers/net/apricot.c#define alloc_skb(size, priority) (struct sk_buff *) kmalloc(size,priority)
sk_buff188drivers/net/apricot.cstatic int i596_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff345drivers/net/apricot.cstruct sk_buff *skb = dev_alloc_skb(pkt_len);
sk_buff411drivers/net/apricot.cstruct sk_buff *skb = ((struct sk_buff *)(tx_cmd->tbd->data)) -1;
sk_buff576drivers/net/apricot.ci596_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff813drivers/net/apricot.cstruct sk_buff *skb = ((struct sk_buff *)(tx_cmd->tbd->data)) -1;
sk_buff365drivers/net/arcnet.cstruct sk_buff *skb;    /* packet data buffer             */
sk_buff373drivers/net/arcnet.cstruct sk_buff *skb;    /* buffer from upper levels */
sk_buff423drivers/net/arcnet.cstatic int arcnetA_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff429drivers/net/arcnet.cstatic int arcnetE_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff447drivers/net/arcnet.cstruct sk_buff *skb);
sk_buff449drivers/net/arcnet.cint arcnetA_header(struct sk_buff *skb,struct device *dev,
sk_buff453drivers/net/arcnet.cstruct sk_buff *skb);
sk_buff454drivers/net/arcnet.cunsigned short arcnetA_type_trans(struct sk_buff *skb,struct device *dev);
sk_buff1045drivers/net/arcnet.carcnetA_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff1435drivers/net/arcnet.carcnetE_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff1896drivers/net/arcnet.cstruct sk_buff *skb;
sk_buff2186drivers/net/arcnet.cstruct sk_buff *skb;
sk_buff2274drivers/net/arcnet.cstruct sk_buff *skb)
sk_buff2276drivers/net/arcnet.cint arcnetA_header(struct sk_buff *skb,struct device *dev,
sk_buff2360drivers/net/arcnet.cstruct sk_buff *skb)
sk_buff2391drivers/net/arcnet.cunsigned short arcnetA_type_trans(struct sk_buff *skb,struct device *dev)
sk_buff124drivers/net/at1700.cstatic int  net_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff371drivers/net/at1700.cnet_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff527drivers/net/at1700.cstruct sk_buff *skb;
sk_buff137drivers/net/atp.cstatic int  net_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff416drivers/net/atp.cnet_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff673drivers/net/atp.cstruct sk_buff *skb;
sk_buff360drivers/net/de4x5.cstruct sk_buff *skb[NUM_TX_DESC];        /* TX skb for freeing when sent */
sk_buff405drivers/net/de4x5.cstatic int     de4x5_queue_pkt(struct sk_buff *skb, struct device *dev);
sk_buff425drivers/net/de4x5.cstatic void    load_packet(struct device *dev, char *buf, u32 flags, struct sk_buff *skb);
sk_buff947drivers/net/de4x5.cde4x5_queue_pkt(struct sk_buff *skb, struct device *dev)
sk_buff1155drivers/net/de4x5.cstruct sk_buff *skb;
sk_buff1369drivers/net/de4x5.cstatic void load_packet(struct device *dev, char *buf, u32 flags, struct sk_buff *skb)
sk_buff2480drivers/net/de4x5.cstruct sk_buff *skb;
sk_buff250drivers/net/de600.cstatic int  de600_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff404drivers/net/de600.cde600_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff587drivers/net/de600.cstruct sk_buff  *skb;
sk_buff183drivers/net/de620.cstatic int  de620_start_xmit(struct sk_buff *, struct device *);
sk_buff493drivers/net/de620.cde620_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff634drivers/net/de620.cstruct sk_buff *skb;
sk_buff368drivers/net/depca.cstatic int    depca_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff393drivers/net/depca.cstatic int    load_packet(struct device *dev, struct sk_buff *skb);
sk_buff813drivers/net/depca.cdepca_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff946drivers/net/depca.cstruct sk_buff *skb;
sk_buff1567drivers/net/depca.cstatic int load_packet(struct device *dev, struct sk_buff *skb)
sk_buff59drivers/net/dummy.cstatic int dummy_xmit(struct sk_buff *skb, struct device *dev);
sk_buff109drivers/net/dummy.cdummy_xmit(struct sk_buff *skb, struct device *dev)
sk_buff104drivers/net/e2100.cstruct sk_buff *skb, int ring_offset);
sk_buff308drivers/net/e2100.ce21_block_input(struct device *dev, int count, struct sk_buff *skb, int ring_offset)
sk_buff144drivers/net/eepro.cstatic int  eepro_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff604drivers/net/eepro.ceepro_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff1051drivers/net/eepro.cstruct sk_buff *skb;
sk_buff293drivers/net/eexpress.cstatic int  eexp_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff457drivers/net/eexpress.ceexp_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff943drivers/net/eexpress.cstruct sk_buff *skb;
sk_buff149drivers/net/eql.cstatic int eql_slave_xmit(struct sk_buff *skb, struct device *dev); /*  */
sk_buff152drivers/net/eql.cstatic int eql_header(struct sk_buff *skb, struct device *dev, 
sk_buff156drivers/net/eql.cunsigned long raddr, struct sk_buff *skb); /*  */
sk_buff364drivers/net/eql.ceql_slave_xmit(struct sk_buff *skb, struct device *dev)
sk_buff417drivers/net/eql.ceql_header(struct sk_buff *skb, struct device *dev, 
sk_buff428drivers/net/eql.cunsigned long raddr, struct sk_buff *skb)
sk_buff292drivers/net/ewrk3.cstatic int ewrk3_queue_pkt(struct sk_buff *skb, struct device *dev);
sk_buff762drivers/net/ewrk3.cewrk3_queue_pkt(struct sk_buff *skb, struct device *dev)
sk_buff1038drivers/net/ewrk3.cstruct sk_buff *skb;
sk_buff105drivers/net/hp-plus.cstruct sk_buff *skb, int ring_offset);
sk_buff111drivers/net/hp-plus.cstruct sk_buff *skb, int ring_offset);
sk_buff331drivers/net/hp-plus.chpp_io_block_input(struct device *dev, int count, struct sk_buff *skb, int ring_offset)
sk_buff358drivers/net/hp-plus.chpp_mem_block_input(struct device *dev, int count, struct sk_buff *skb, int ring_offset)
sk_buff66drivers/net/hp.cstruct sk_buff *skb , int ring_offset);
sk_buff249drivers/net/hp.chp_block_input(struct device *dev, int count, struct sk_buff *skb, int ring_offset)
sk_buff195drivers/net/hp100.cstatic int hp100_start_xmit( struct sk_buff *skb, struct device *dev );
sk_buff584drivers/net/hp100.cstatic int hp100_start_xmit( struct sk_buff *skb, struct device *dev )
sk_buff720drivers/net/hp100.cstruct sk_buff *skb;
sk_buff156drivers/net/ibmtr.cstatic int tok_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff1149drivers/net/ibmtr.cstruct sk_buff *skb;
sk_buff1245drivers/net/ibmtr.cstatic int tok_send_packet(struct sk_buff *skb, struct device *dev) {
sk_buff199drivers/net/ibmtr.hstruct sk_buff *current_skb;
sk_buff196drivers/net/lance.cstruct sk_buff* tx_skbuff[TX_RING_SIZE];
sk_buff255drivers/net/lance.cstatic int lance_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff706drivers/net/lance.clance_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff983drivers/net/lance.cstruct sk_buff *skb;
sk_buff49drivers/net/loopback.cstatic int loopback_xmit(struct sk_buff *skb, struct device *dev)
sk_buff76drivers/net/loopback.cstruct sk_buff *skb2=skb;
sk_buff99drivers/net/ne.cstruct sk_buff *skb, int ring_offset);
sk_buff413drivers/net/ne.cne_block_input(struct device *dev, int count, struct sk_buff *skb, int ring_offset)
sk_buff164drivers/net/ni52.cstatic int     ni52_send_packet(struct sk_buff *,struct device *);
sk_buff791drivers/net/ni52.cstruct sk_buff *skb;
sk_buff805drivers/net/ni52.cskb = (struct sk_buff *) dev_alloc_skb(totlen+2);
sk_buff927drivers/net/ni52.cstatic int ni52_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff120drivers/net/ni65.cstatic int   ni65_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff134drivers/net/ni65.cstruct sk_buff *recv_skb[RMDNUM];
sk_buff453drivers/net/ni65.cstruct sk_buff *skb;
sk_buff463drivers/net/ni65.cskb = (struct sk_buff *) p->tmdbufs[p->tmdlast];
sk_buff501drivers/net/ni65.cstruct sk_buff *skb,*skb1;
sk_buff565drivers/net/ni65.cstatic int ni65_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff150drivers/net/pi2.cstatic int pi_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff207drivers/net/pi2.cstatic void hardware_send_packet(struct pi_local *lp, struct sk_buff *skb)
sk_buff337drivers/net/pi2.cstatic void free_p(struct sk_buff *skb)
sk_buff509drivers/net/pi2.cstruct sk_buff *skb;
sk_buff584drivers/net/pi2.cstruct sk_buff *skb;
sk_buff1076drivers/net/pi2.cstatic int pi_header(struct sk_buff *skb, struct device *dev, unsigned short type,
sk_buff1084drivers/net/pi2.cstruct sk_buff *skb)
sk_buff1492drivers/net/pi2.cstatic int pi_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff1570drivers/net/pi2.cstruct sk_buff *ptr;
sk_buff101drivers/net/pi2.hstruct sk_buff *sndbuf;  /* Current buffer being transmitted */
sk_buff152drivers/net/plip.cunsigned long raddr, struct sk_buff *skb);
sk_buff153drivers/net/plip.cstatic int plip_tx_packet(struct sk_buff *skb, struct device *dev);
sk_buff203drivers/net/plip.cstruct sk_buff *skb;
sk_buff218drivers/net/plip.cunsigned long raddr, struct sk_buff *skb);
sk_buff864drivers/net/plip.cstruct sk_buff *skb)
sk_buff886drivers/net/plip.cplip_tx_packet(struct sk_buff *skb, struct device *dev)
sk_buff106drivers/net/ppp.ctypedef struct sk_buff       sk_buff;
sk_buff196drivers/net/ppp.cstatic int ppp_dev_xmit (sk_buff *, struct device *);
sk_buff207drivers/net/ppp.cstatic unsigned short ppp_dev_type (sk_buff *, struct device *);
sk_buff210drivers/net/ppp.cunsigned len, struct sk_buff *skb);
sk_buff218drivers/net/ppp.cstatic int ppp_dev_header (sk_buff *, struct device *, unsigned short,
sk_buff224drivers/net/ppp.csk_buff *skb, void *saddr, void *daddr);
sk_buff225drivers/net/ppp.cstatic int ppp_dev_output (struct protocol *self, sk_buff *skb, int type,
sk_buff230drivers/net/ppp.csk_buff *);
sk_buff1258drivers/net/ppp.csk_buff *skb = dev_alloc_skb (count);
sk_buff3120drivers/net/ppp.cppp_dev_xmit (sk_buff *skb, struct device *dev)
sk_buff3238drivers/net/ppp.csk_buff *skb, void *saddr, void *daddr)
sk_buff3243drivers/net/ppp.cstatic int ppp_dev_output (struct protocol *self, sk_buff *skb, int type,
sk_buff3280drivers/net/ppp.cppp_dev_type (sk_buff *skb, struct device *dev)
sk_buff3289drivers/net/ppp.cunsigned len, struct sk_buff *skb)
sk_buff3291drivers/net/ppp.cstatic int ppp_dev_header (sk_buff *skb, struct device *dev,
sk_buff3301drivers/net/ppp.csk_buff *skb)
sk_buff87drivers/net/seeq8005.cstatic int seeq8005_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff378drivers/net/seeq8005.cseeq8005_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff537drivers/net/seeq8005.cstruct sk_buff *skb;
sk_buff489drivers/net/sk_g16.cstatic int   SK_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff1197drivers/net/sk_g16.cstatic int SK_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff1575drivers/net/sk_g16.cstruct sk_buff *skb;
sk_buff110drivers/net/skeleton.cstatic int  net_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff335drivers/net/skeleton.cnet_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff444drivers/net/skeleton.cstruct sk_buff *skb;
sk_buff342drivers/net/slip.cstruct sk_buff *skb;
sk_buff481drivers/net/slip.csl_xmit(struct sk_buff *skb, struct device *dev)
sk_buff533drivers/net/slip.csl_header(struct sk_buff *skb, struct device *dev, unsigned short type,
sk_buff552drivers/net/slip.cstruct sk_buff *skb)
sk_buff72drivers/net/smc-ultra.cstruct sk_buff *skb, int ring_offset);
sk_buff278drivers/net/smc-ultra.cultra_block_input(struct device *dev, int count, struct sk_buff *skb, int ring_offset)
sk_buff147drivers/net/tulip.cstruct sk_buff* tx_skbuff[TX_RING_SIZE];
sk_buff160drivers/net/tulip.cstatic int tulip_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff386drivers/net/tulip.ctulip_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff611drivers/net/tulip.cstruct sk_buff *skb;
sk_buff47drivers/net/tunnel.cstatic int tunnel_xmit(struct sk_buff *skb, struct device *dev);
sk_buff127drivers/net/tunnel.cstatic int tunnel_xmit(struct sk_buff *skb, struct device *dev)
sk_buff130drivers/net/tunnel.cstruct sk_buff *skb2;    /* The output packet */
sk_buff84drivers/net/wavelan.cstatic int    wavelan_send_packet(struct sk_buff *, device *);
sk_buff1394drivers/net/wavelan.cwavelan_send_packet(struct sk_buff *skb, device *dev)
sk_buff1435drivers/net/wavelan.cif (skb == (struct sk_buff *)0)
sk_buff1502drivers/net/wavelan.cstruct sk_buff  *skb;
sk_buff1645drivers/net/wavelan.cif ((skb = dev_alloc_skb(sksize)) == (struct sk_buff *)0)
sk_buff51drivers/net/wd.cstruct sk_buff *skb, int ring_offset);
sk_buff347drivers/net/wd.cwd_block_input(struct device *dev, int count, struct sk_buff *skb, int ring_offset)
sk_buff184drivers/net/znet.cstatic int  znet_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff317drivers/net/znet.cstatic int znet_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff549drivers/net/znet.cstruct sk_buff *skb;
sk_buff141include/linux/atalk.hextern int aarp_send_ddp(struct device *dev,struct sk_buff *skb, struct at_addr *sa, void *hwaddr);
sk_buff31include/linux/etherdevice.hextern int    eth_header(struct sk_buff *skb, struct device *dev,
sk_buff35include/linux/etherdevice.hunsigned long dst, struct sk_buff *skb);
sk_buff36include/linux/etherdevice.hextern unsigned short  eth_type_trans(struct sk_buff *skb, struct device *dev);
sk_buff38include/linux/etherdevice.hextern void    eth_copy_and_sum(struct sk_buff *dest,
sk_buff87include/linux/igmp.hextern int igmp_rcv(struct sk_buff *, struct device *, struct options *, __u32, unsigned short,
sk_buff151include/linux/ip_fw.hextern void ip_fw_masquerade(struct sk_buff **, struct device *);
sk_buff152include/linux/ip_fw.hextern int ip_fw_demasquerade(struct sk_buff *);
sk_buff121include/linux/mroute.hextern void ipmr_forward(struct sk_buff *skb, int is_frag);
sk_buff149include/linux/netdevice.hint        (*hard_start_xmit) (struct sk_buff *skb,
sk_buff151include/linux/netdevice.hint        (*hard_header) (struct sk_buff *skb,
sk_buff158include/linux/netdevice.hunsigned long raddr, struct sk_buff *skb);
sk_buff175include/linux/netdevice.hint      (*func) (struct sk_buff *, struct device *,
sk_buff208include/linux/netdevice.hextern void    dev_queue_xmit(struct sk_buff *skb, struct device *dev,
sk_buff211include/linux/netdevice.hextern void    netif_rx(struct sk_buff *skb);
sk_buff32include/linux/skbuff.hstruct sk_buff    * volatile next;
sk_buff33include/linux/skbuff.hstruct sk_buff    * volatile prev;
sk_buff41include/linux/skbuff.hstruct sk_buff    * volatile next;  /* Next buffer in list */
sk_buff42include/linux/skbuff.hstruct sk_buff    * volatile prev;  /* Previous buffer in list */
sk_buff46include/linux/skbuff.hstruct sk_buff    * volatile link3;  /* Link for IP protocol level buffer chains   */
sk_buff116include/linux/skbuff.hextern void      print_skb(struct sk_buff *);
sk_buff118include/linux/skbuff.hextern void      kfree_skb(struct sk_buff *skb, int rw);
sk_buff120include/linux/skbuff.hextern void      skb_queue_head(struct sk_buff_head *list,struct sk_buff *buf);
sk_buff121include/linux/skbuff.hextern void      skb_queue_tail(struct sk_buff_head *list,struct sk_buff *buf);
sk_buff122include/linux/skbuff.hextern struct sk_buff *    skb_dequeue(struct sk_buff_head *list);
sk_buff123include/linux/skbuff.hextern void       skb_insert(struct sk_buff *old,struct sk_buff *newsk);
sk_buff124include/linux/skbuff.hextern void      skb_append(struct sk_buff *old,struct sk_buff *newsk);
sk_buff125include/linux/skbuff.hextern void      skb_unlink(struct sk_buff *buf);
sk_buff126include/linux/skbuff.hextern struct sk_buff *    skb_peek_copy(struct sk_buff_head *list);
sk_buff127include/linux/skbuff.hextern struct sk_buff *    alloc_skb(unsigned int size, int priority);
sk_buff128include/linux/skbuff.hextern struct sk_buff *    dev_alloc_skb(unsigned int size);
sk_buff129include/linux/skbuff.hextern void      kfree_skbmem(struct sk_buff *skb);
sk_buff130include/linux/skbuff.hextern struct sk_buff *    skb_clone(struct sk_buff *skb, int priority);
sk_buff131include/linux/skbuff.hextern void      skb_device_lock(struct sk_buff *skb);
sk_buff132include/linux/skbuff.hextern void      skb_device_unlock(struct sk_buff *skb);
sk_buff133include/linux/skbuff.hextern void      dev_kfree_skb(struct sk_buff *skb, int mode);
sk_buff134include/linux/skbuff.hextern int      skb_device_locked(struct sk_buff *skb);
sk_buff135include/linux/skbuff.hextern unsigned char *    skb_put(struct sk_buff *skb, int len);
sk_buff136include/linux/skbuff.hextern unsigned char *    skb_push(struct sk_buff *skb, int len);
sk_buff137include/linux/skbuff.hextern unsigned char *    skb_pull(struct sk_buff *skb, int len);
sk_buff138include/linux/skbuff.hextern int      skb_headroom(struct sk_buff *skb);
sk_buff139include/linux/skbuff.hextern int      skb_tailroom(struct sk_buff *skb);
sk_buff140include/linux/skbuff.hextern void      skb_reserve(struct sk_buff *skb, int len);
sk_buff141include/linux/skbuff.hextern void       skb_trim(struct sk_buff *skb, int len);
sk_buff149include/linux/skbuff.hstatic __inline__ struct sk_buff *skb_peek(struct sk_buff_head *list_)
sk_buff151include/linux/skbuff.hstruct sk_buff *list = (struct sk_buff *)list_;
sk_buff156include/linux/skbuff.hextern int       skb_check(struct sk_buff *skb,int,int, char *);
sk_buff165include/linux/skbuff.hlist->prev = (struct sk_buff *)list;
sk_buff166include/linux/skbuff.hlist->next = (struct sk_buff *)list;
sk_buff173include/linux/skbuff.hextern __inline__ void skb_queue_head(struct sk_buff_head *list_,struct sk_buff *newsk)
sk_buff176include/linux/skbuff.hstruct sk_buff *list = (struct sk_buff *)list_;
sk_buff191include/linux/skbuff.hextern __inline__ void skb_queue_tail(struct sk_buff_head *list_, struct sk_buff *newsk)
sk_buff194include/linux/skbuff.hstruct sk_buff *list = (struct sk_buff *)list_;
sk_buff215include/linux/skbuff.hextern __inline__ struct sk_buff *skb_dequeue(struct sk_buff_head *list_)
sk_buff218include/linux/skbuff.hstruct sk_buff *result;
sk_buff219include/linux/skbuff.hstruct sk_buff *list = (struct sk_buff *)list_;
sk_buff248include/linux/skbuff.hextern __inline__ void skb_insert(struct sk_buff *old, struct sk_buff *newsk)
sk_buff266include/linux/skbuff.hextern __inline__ void skb_append(struct sk_buff *old, struct sk_buff *newsk)
sk_buff288include/linux/skbuff.hextern __inline__ void skb_unlink(struct sk_buff *skb)
sk_buff309include/linux/skbuff.hextern __inline__ unsigned char *skb_put(struct sk_buff *skb, int len)
sk_buff319include/linux/skbuff.hextern __inline__ unsigned char *skb_push(struct sk_buff *skb, int len)
sk_buff328include/linux/skbuff.hextern __inline__ unsigned char * skb_pull(struct sk_buff *skb, int len)
sk_buff337include/linux/skbuff.hextern __inline__ int skb_headroom(struct sk_buff *skb)
sk_buff342include/linux/skbuff.hextern __inline__ int skb_tailroom(struct sk_buff *skb)
sk_buff347include/linux/skbuff.hextern __inline__ void skb_reserve(struct sk_buff *skb, int len)
sk_buff353include/linux/skbuff.hextern __inline__ void skb_trim(struct sk_buff *skb, int len)
sk_buff364include/linux/skbuff.hextern struct sk_buff *    skb_recv_datagram(struct sock *sk,unsigned flags,int noblock, int *err);
sk_buff366include/linux/skbuff.hextern void      skb_copy_datagram(struct sk_buff *from, int offset, char *to,int size);
sk_buff367include/linux/skbuff.hextern void      skb_copy_datagram_iovec(struct sk_buff *from, int offset, struct iovec *to,int size);
sk_buff368include/linux/skbuff.hextern void      skb_free_datagram(struct sk_buff *skb);
sk_buff31include/linux/trdevice.hextern int    tr_header(struct sk_buff *skb, struct device *dev,
sk_buff35include/linux/trdevice.hunsigned long raddr, struct sk_buff *skb);
sk_buff36include/linux/trdevice.hextern unsigned short  tr_type_trans(struct sk_buff *skb, struct device *dev);
sk_buff8include/net/arp.hextern int  arp_rcv(struct sk_buff *skb, struct device *dev,
sk_buff12include/net/arp.hstruct device *dev, u32 saddr, struct sk_buff *skb);
sk_buff165include/net/ax25.hextern int  ax25_send_frame(struct sk_buff *, ax25_address *, ax25_address *, ax25_digi *, struct device *);
sk_buff168include/net/ax25.hextern int  ax25_encapsulate(struct sk_buff *, struct device *, unsigned short,
sk_buff170include/net/ax25.hextern int  ax25_rebuild_header(unsigned char *, struct device *, unsigned long, struct sk_buff *);
sk_buff174include/net/ax25.hextern void ax25_queue_xmit(struct sk_buff *, struct device *, int);
sk_buff179include/net/ax25.hextern int  ax25_process_rx_frame(ax25_cb *, struct sk_buff *, int);
sk_buff182include/net/ax25.hextern void ax25_output(ax25_cb *, struct sk_buff *);
sk_buff184include/net/ax25.hextern void ax25_transmit_buffer(ax25_cb *, struct sk_buff *, int);
sk_buff212include/net/ax25.hextern int  ax25_decode(ax25_cb *, struct sk_buff *, int *, int *, int *);
sk_buff9include/net/datalink.hint  (*rcvfunc)(struct sk_buff *, struct device *, 
sk_buff11include/net/datalink.hvoid  (*datalink_header)(struct datalink_proto *, struct sk_buff *,
sk_buff26include/net/icmp.hextern void  icmp_send(struct sk_buff *skb_in,  int type, int code,
sk_buff28include/net/icmp.hextern int  icmp_rcv(struct sk_buff *skb1, struct device *dev,
sk_buff55include/net/ip.hstruct sk_buff *skb;      /* complete received fragment    */
sk_buff80include/net/ip.hextern int    ip_build_header(struct sk_buff *skb,
sk_buff87include/net/ip.hextern int    ip_rcv(struct sk_buff *skb, struct device *dev,
sk_buff89include/net/ip.hextern int    ip_forward(struct sk_buff *skb, struct device *dev,
sk_buff93include/net/ip.hstruct sk_buff * skb);
sk_buff94include/net/ip.hextern int    ip_options_compile(struct options * opt, struct sk_buff * skb);
sk_buff98include/net/ip.hstruct device *dev, struct sk_buff *skb,
sk_buff1include/net/ipip.hextern int ipip_rcv(struct sk_buff *skb, struct device *dev, struct options *opt, 
sk_buff48include/net/ipx.hextern int ipx_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt);
sk_buff7include/net/netlink.hextern int netlink_attach(int unit, int (*function)(struct sk_buff *skb));
sk_buff8include/net/netlink.hextern int netlink_donothing(struct sk_buff *skb);
sk_buff10include/net/netlink.hextern int netlink_post(int unit, struct sk_buff *skb);
sk_buff94include/net/netrom.hextern int  nr_rx_frame(struct sk_buff *, struct device *);
sk_buff98include/net/netrom.hextern int  nr_rx_ip(struct sk_buff *, struct device *);
sk_buff104include/net/netrom.hextern int  nr_process_rx_frame(struct sock *, struct sk_buff *);
sk_buff107include/net/netrom.hextern void nr_output(struct sock *, struct sk_buff *);
sk_buff110include/net/netrom.hextern void nr_transmit_buffer(struct sock *, struct sk_buff *);
sk_buff121include/net/netrom.hextern int  nr_route_frame(struct sk_buff *, ax25_cb *);
sk_buff132include/net/netrom.hextern void nr_transmit_dm(struct sk_buff *);
sk_buff1include/net/p8022.hstruct datalink_proto *register_8022_client(unsigned char type, int (*rcvfunc)(struct sk_buff *, struct device *, struct packet_type *));
sk_buff32include/net/protocol.hint      (*handler)(struct sk_buff *skb, struct device *dev,
sk_buff1include/net/psnap.hstruct datalink_proto *register_snap_client(unsigned char *desc, int (*rcvfunc)(struct sk_buff *, struct device *, struct packet_type *));
sk_buff31include/net/raw.hextern int   raw_rcv(struct sock *, struct sk_buff *, struct device *, 
sk_buff120include/net/sock.hstruct sk_buff    * volatile send_head;
sk_buff121include/net/sock.hstruct sk_buff    * volatile send_tail;
sk_buff123include/net/sock.hstruct sk_buff    *partial;
sk_buff240include/net/sock.hstruct sk_buff *  (*wmalloc)(struct sock *sk,
sk_buff243include/net/sock.hstruct sk_buff *  (*rmalloc)(struct sock *sk,
sk_buff246include/net/sock.hvoid      (*wfree)(struct sock *sk, struct sk_buff *skb);
sk_buff247include/net/sock.hvoid      (*rfree)(struct sock *sk, struct sk_buff *skb);
sk_buff263include/net/sock.hint      (*build_header)(struct sk_buff *skb,
sk_buff273include/net/sock.hstruct device *dev, struct sk_buff *skb,
sk_buff278include/net/sock.hint      (*rcv)(struct sk_buff *buff, struct device *dev,
sk_buff332include/net/sock.hextern struct sk_buff    *sock_wmalloc(struct sock *sk,
sk_buff335include/net/sock.hextern struct sk_buff    *sock_rmalloc(struct sock *sk,
sk_buff339include/net/sock.hstruct sk_buff *skb);
sk_buff341include/net/sock.hstruct sk_buff *skb);
sk_buff352include/net/sock.hextern struct sk_buff     *sock_alloc_send_skb(struct sock *skb,
sk_buff367include/net/sock.hextern __inline__ int sock_queue_rcv_skb(struct sock *sk, struct sk_buff *skb)
sk_buff129include/net/tcp.hextern int  tcp_rcv(struct sk_buff *skb, struct device *dev,
sk_buff140include/net/tcp.hextern void tcp_enqueue_partial(struct sk_buff *, struct sock *);
sk_buff141include/net/tcp.hextern struct sk_buff * tcp_dequeue_partial(struct sock *);
sk_buff45include/net/udp.hextern int  udp_rcv(struct sk_buff *skb, struct device *dev,
sk_buff6net/802/llc.cint llc_rx_adm(struct sock *sk,struct sk_buff *skb, int type, int cmd, int pf, int nr, int ns)
sk_buff36net/802/llc.cint llc_rx_setup(struct sock *sk, struct sk_buff *skb, int type, int cmd, int pf, int nr, int ns)
sk_buff70net/802/llc.cint llc_rx_reset(struct sock *sk, struct sk_buff *skb, int type, int cmd, int pf, int nr, int ns)
sk_buff114net/802/llc.cint llc_rx_d_conn(struct sock *sk, struct sk_buff *skb, int type, int cmd, int pf, int nr, int ns)
sk_buff150net/802/llc.cint llc_rx_error(struct sock *sk, struct sk_buff *skb, int type, int cmd, int pf, int nr, int ns)
sk_buff199net/802/llc.cint llc_rx_nr_shared(struct sock *sk, struct sk_buff *skb, int type, int cmd, int pf, int nr, int ns)
sk_buff288net/802/llc.cint llc_rx_normal(struct sock *sk, struct sk_buff *skb, int type, int cmd, int pf, int nr, int ns)
sk_buff30net/802/p8022.cp8022_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff48net/802/p8022.cstruct sk_buff *skb, unsigned char *dest_node)
sk_buff77net/802/p8022.cregister_8022_client(unsigned char type, int (*rcvfunc)(struct sk_buff *, struct device *, struct packet_type *))
sk_buff9net/802/p8023.cstruct sk_buff *skb, unsigned char *dest_node)
sk_buff40net/802/psnap.cint snap_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff75net/802/psnap.cstatic void snap_datalink_header(struct datalink_proto *dl, struct sk_buff *skb, unsigned char *dest_node)
sk_buff96net/802/psnap.cstruct datalink_proto *register_snap_client(unsigned char *desc, int (*rcvfunc)(struct sk_buff *, struct device *, struct packet_type *))
sk_buff41net/802/tr.cint tr_header(struct sk_buff *skb, struct device *dev, unsigned short type,
sk_buff72net/802/tr.cstruct sk_buff *skb) {
sk_buff91net/802/tr.cunsigned short tr_type_trans(struct sk_buff *skb, struct device *dev) {
sk_buff90net/appletalk/aarp.cstruct sk_buff *skb;
sk_buff106net/appletalk/aarp.cstruct sk_buff *skb=alloc_skb(len, GFP_ATOMIC);
sk_buff168net/appletalk/aarp.cstruct sk_buff *skb=alloc_skb(len, GFP_ATOMIC);
sk_buff230net/appletalk/aarp.cstruct sk_buff *skb=alloc_skb(len, GFP_ATOMIC);
sk_buff428net/appletalk/aarp.cint aarp_send_ddp(struct device *dev,struct sk_buff *skb, struct at_addr *sa, void *hwaddr)
sk_buff538net/appletalk/aarp.cstruct sk_buff *skb;
sk_buff564net/appletalk/aarp.cstatic int aarp_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff193net/appletalk/ddp.cstruct sk_buff *skb;
sk_buff1340net/appletalk/ddp.cint atalk_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff1476net/appletalk/ddp.cstruct sk_buff *skb;
sk_buff1601net/appletalk/ddp.cstruct sk_buff *skb2=skb_clone(skb, GFP_KERNEL);
sk_buff1675net/appletalk/ddp.cstruct sk_buff *skb;
sk_buff1791net/appletalk/ddp.cstruct sk_buff *skb;
sk_buff358net/ax25/af_ax25.cstatic void ax25_send_to_raw(struct sock *sk, struct sk_buff *skb, int proto)
sk_buff360net/ax25/af_ax25.cstruct sk_buff *copy;
sk_buff399net/ax25/af_ax25.cstruct sk_buff *skb;
sk_buff593net/ax25/af_ax25.cint ax25_send_frame(struct sk_buff *skb, ax25_address *src, ax25_address *dest,
sk_buff1276net/ax25/af_ax25.cstruct sk_buff *skb;
sk_buff1356net/ax25/af_ax25.cstatic int ax25_rcv(struct sk_buff *skb, struct device *dev, ax25_address *dev_addr, struct packet_type *ptype)
sk_buff1622net/ax25/af_ax25.cstatic int kiss_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *ptype)
sk_buff1639net/ax25/af_ax25.cstatic int bpq_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *ptype)
sk_buff1665net/ax25/af_ax25.cstruct sk_buff *skb;
sk_buff1834net/ax25/af_ax25.cstruct sk_buff *skb;
sk_buff1976net/ax25/af_ax25.cstruct sk_buff *skb;
sk_buff2201net/ax25/af_ax25.cvoid ax25_queue_xmit(struct sk_buff *skb, struct device *dev, int pri)
sk_buff2245net/ax25/af_ax25.cint ax25_encapsulate(struct sk_buff *skb, struct device *dev, unsigned short type, void *daddr,
sk_buff2293net/ax25/af_ax25.cint ax25_rebuild_header(unsigned char *bp, struct device *dev, unsigned long dest, struct sk_buff *skb)
sk_buff58net/ax25/ax25_in.cstatic int ax25_rx_iframe(ax25_cb *, struct sk_buff *);
sk_buff64net/ax25/ax25_in.cstatic int ax25_rx_fragment(ax25_cb *ax25, struct sk_buff *skb)
sk_buff66net/ax25/ax25_in.cstruct sk_buff *skbn, *skbo;
sk_buff130net/ax25/ax25_in.cstatic int ax25_rx_iframe(ax25_cb *ax25, struct sk_buff *skb)
sk_buff177net/ax25/ax25_in.cstatic int ax25_state1_machine(ax25_cb *ax25, struct sk_buff *skb, int frametype, int pf, int type)
sk_buff246net/ax25/ax25_in.cstatic int ax25_state2_machine(ax25_cb *ax25, struct sk_buff *skb, int frametype, int pf, int type)
sk_buff304net/ax25/ax25_in.cstatic int ax25_state3_machine(ax25_cb *ax25, struct sk_buff *skb, int frametype, int ns, int nr, int pf, int type)
sk_buff461net/ax25/ax25_in.cstatic int ax25_state4_machine(ax25_cb *ax25, struct sk_buff *skb, int frametype, int ns, int nr, int pf, int type)
sk_buff667net/ax25/ax25_in.cint ax25_process_rx_frame(ax25_cb *ax25, struct sk_buff *skb, int type)
sk_buff56net/ax25/ax25_out.cvoid ax25_output(ax25_cb *ax25, struct sk_buff *skb)
sk_buff58net/ax25/ax25_out.cstruct sk_buff *skbn;
sk_buff119net/ax25/ax25_out.cstatic void ax25_send_iframe(ax25_cb *ax25, struct sk_buff *skb, int poll_bit)
sk_buff147net/ax25/ax25_out.cstruct sk_buff *skb, *skbn;
sk_buff212net/ax25/ax25_out.cvoid ax25_transmit_buffer(ax25_cb *ax25, struct sk_buff *skb, int type)
sk_buff58net/ax25/ax25_subr.cstruct sk_buff *skb;
sk_buff86net/ax25/ax25_subr.cstruct sk_buff *skb;
sk_buff107net/ax25/ax25_subr.cstruct sk_buff *skb, *skb_prev = NULL;
sk_buff145net/ax25/ax25_subr.cint ax25_decode(ax25_cb *ax25, struct sk_buff *skb, int *ns, int *nr, int *pf)
sk_buff197net/ax25/ax25_subr.cstruct sk_buff *skb;
sk_buff246net/ax25/ax25_subr.cstruct sk_buff *skb;
sk_buff55net/core/datagram.cstruct sk_buff *skb_recv_datagram(struct sock *sk, unsigned flags, int noblock, int *err)
sk_buff57net/core/datagram.cstruct sk_buff *skb;
sk_buff150net/core/datagram.cvoid skb_free_datagram(struct sk_buff *skb)
sk_buff172net/core/datagram.cvoid skb_copy_datagram(struct sk_buff *skb, int offset, char *to, int size)
sk_buff182net/core/datagram.cvoid skb_copy_datagram_iovec(struct sk_buff *skb, int offset, struct iovec *to, int size)
sk_buff104net/core/dev.c(struct sk_buff *)&backlog, (struct sk_buff *)&backlog
sk_buff283net/core/dev.cstruct sk_buff *skb;
sk_buff318net/core/dev.cvoid dev_queue_xmit(struct sk_buff *skb, struct device *dev, int pri)
sk_buff386net/core/dev.cstruct sk_buff *skb2;
sk_buff421net/core/dev.cvoid netif_rx(struct sk_buff *skb)
sk_buff490net/core/dev.cstruct sk_buff *skb = NULL;
sk_buff500net/core/dev.cskb = (struct sk_buff *) buff;
sk_buff608net/core/dev.cstruct sk_buff *skb;
sk_buff675net/core/dev.cstruct sk_buff *skb2=skb_clone(skb, GFP_ATOMIC);
sk_buff692net/core/dev.cstruct sk_buff *skb2;
sk_buff756net/core/dev.cstruct sk_buff *skb;
sk_buff71net/core/skbuff.cint skb_check(struct sk_buff *skb, int head, int line, char *file)
sk_buff97net/core/skbuff.cstruct sk_buff *skb2 = skb->next;
sk_buff185net/core/skbuff.clist->prev = (struct sk_buff *)list;
sk_buff186net/core/skbuff.clist->next = (struct sk_buff *)list;
sk_buff194net/core/skbuff.cvoid skb_queue_head(struct sk_buff_head *list_,struct sk_buff *newsk)
sk_buff197net/core/skbuff.cstruct sk_buff *list = (struct sk_buff *)list_;
sk_buff219net/core/skbuff.cvoid skb_queue_tail(struct sk_buff_head *list_, struct sk_buff *newsk)
sk_buff222net/core/skbuff.cstruct sk_buff *list = (struct sk_buff *)list_;
sk_buff246net/core/skbuff.cstruct sk_buff *skb_dequeue(struct sk_buff_head *list_)
sk_buff249net/core/skbuff.cstruct sk_buff *result;
sk_buff250net/core/skbuff.cstruct sk_buff *list = (struct sk_buff *)list_;
sk_buff278net/core/skbuff.cvoid skb_insert(struct sk_buff *old, struct sk_buff *newsk)
sk_buff303net/core/skbuff.cvoid skb_append(struct sk_buff *old, struct sk_buff *newsk)
sk_buff332net/core/skbuff.cvoid skb_unlink(struct sk_buff *skb)
sk_buff359net/core/skbuff.cunsigned char *skb_put(struct sk_buff *skb, int len)
sk_buff371net/core/skbuff.cunsigned char *skb_push(struct sk_buff *skb, int len)
sk_buff382net/core/skbuff.cunsigned char * skb_pull(struct sk_buff *skb, int len)
sk_buff392net/core/skbuff.cint skb_headroom(struct sk_buff *skb)
sk_buff398net/core/skbuff.cint skb_tailroom(struct sk_buff *skb)
sk_buff404net/core/skbuff.cvoid skb_reserve(struct sk_buff *skb, int len)
sk_buff416net/core/skbuff.cvoid skb_trim(struct sk_buff *skb, int len)
sk_buff435net/core/skbuff.cvoid kfree_skb(struct sk_buff *skb, int rw)
sk_buff492net/core/skbuff.cstruct sk_buff *alloc_skb(unsigned int size,int priority)
sk_buff494net/core/skbuff.cstruct sk_buff *skb;
sk_buff510net/core/skbuff.csize+=sizeof(struct sk_buff);  /* And stick the control itself on the end */
sk_buff535net/core/skbuff.cskb=(struct sk_buff *)(bptr+size)-1;
sk_buff570net/core/skbuff.cvoid kfree_skbmem(struct sk_buff *skb)
sk_buff585net/core/skbuff.cstruct sk_buff *skb_clone(struct sk_buff *skb, int priority)
sk_buff587net/core/skbuff.cstruct sk_buff *n;
sk_buff596net/core/skbuff.cn=alloc_skb(skb->truesize-sizeof(struct sk_buff),priority);
sk_buff642net/core/skbuff.cvoid skb_device_lock(struct sk_buff *skb)
sk_buff651net/core/skbuff.cvoid skb_device_unlock(struct sk_buff *skb)
sk_buff660net/core/skbuff.cvoid dev_kfree_skb(struct sk_buff *skb, int mode)
sk_buff678net/core/skbuff.cstruct sk_buff *dev_alloc_skb(unsigned int length)
sk_buff680net/core/skbuff.cstruct sk_buff *skb;
sk_buff688net/core/skbuff.cint skb_device_locked(struct sk_buff *skb)
sk_buff307net/core/sock.cstruct sk_buff *sock_wmalloc(struct sock *sk, unsigned long size, int force, int priority)
sk_buff313net/core/sock.cstruct sk_buff * c = alloc_skb(size, priority);
sk_buff330net/core/sock.cstruct sk_buff *sock_rmalloc(struct sock *sk, unsigned long size, int force, int priority)
sk_buff336net/core/sock.cstruct sk_buff *c = alloc_skb(size, priority);
sk_buff384net/core/sock.cvoid sock_wfree(struct sock *sk, struct sk_buff *skb)
sk_buff405net/core/sock.cvoid sock_rfree(struct sock *sk, struct sk_buff *skb)
sk_buff426net/core/sock.cstruct sk_buff *sock_alloc_send_skb(struct sock *sk, unsigned long size, unsigned long fallback, int noblock, int *errcode)
sk_buff428net/core/sock.cstruct sk_buff *skb;
sk_buff528net/core/sock.cstruct sk_buff *skb;
sk_buff89net/ethernet/eth.cint eth_header(struct sk_buff *skb, struct device *dev, unsigned short type,
sk_buff140net/ethernet/eth.cstruct sk_buff *skb)
sk_buff172net/ethernet/eth.cunsigned short eth_type_trans(struct sk_buff *skb, struct device *dev)
sk_buff245net/ethernet/eth.cvoid eth_copy_and_sum(struct sk_buff *dest, unsigned char *src, int length, int base)
sk_buff9net/ethernet/pe2.cstruct sk_buff *skb, unsigned char *dest_node)
sk_buff287net/ipv4/af_inet.cstruct sk_buff *skb;
sk_buff341net/ipv4/af_inet.cstruct sk_buff *skb2;
sk_buff273net/ipv4/arp.cstruct sk_buff *skb;
sk_buff342net/ipv4/arp.cstruct sk_buff *skb;
sk_buff502net/ipv4/arp.cstruct sk_buff *skb;
sk_buff596net/ipv4/arp.cint arp_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff920net/ipv4/arp.cu32 saddr, struct sk_buff *skb)
sk_buff149net/ipv4/icmp.cvoid (*handler)(struct icmphdr *icmph, struct sk_buff *skb, struct device *dev, __u32 saddr, __u32 daddr, int len);
sk_buff251net/ipv4/icmp.cvoid icmp_send(struct sk_buff *skb_in, int type, int code, unsigned long info, struct device *dev)
sk_buff337net/ipv4/icmp.cstatic void icmp_unreach(struct icmphdr *icmph, struct sk_buff *skb, struct device *dev, __u32 saddr, __u32 daddr, int len)
sk_buff426net/ipv4/icmp.cstatic void icmp_redirect(struct icmphdr *icmph, struct sk_buff *skb, struct device *dev, __u32 source, __u32 daddr, int len)
sk_buff507net/ipv4/icmp.cstatic void icmp_echo(struct icmphdr *icmph, struct sk_buff *skb, struct device *dev, __u32 saddr, __u32 daddr, int len)
sk_buff527net/ipv4/icmp.cstatic void icmp_timestamp(struct icmphdr *icmph, struct sk_buff *skb, struct device *dev, __u32 saddr, __u32 daddr, int len)
sk_buff577net/ipv4/icmp.cstatic void icmp_address(struct icmphdr *icmph, struct sk_buff *skb, struct device *dev, __u32 saddr, __u32 daddr, int len)
sk_buff594net/ipv4/icmp.cstatic void icmp_discard(struct icmphdr *icmph, struct sk_buff *skb, struct device *dev, __u32 saddr, __u32 daddr, int len)
sk_buff603net/ipv4/icmp.cint icmp_rcv(struct sk_buff *skb, struct device *dev, struct options *opt,
sk_buff99net/ipv4/igmp.cstruct sk_buff *skb=alloc_skb(MAX_IGMP_SIZE, GFP_ATOMIC);
sk_buff213net/ipv4/igmp.cint igmp_rcv(struct sk_buff *skb, struct device *dev, struct options *opt,
sk_buff181net/ipv4/ip.cstatic void ip_options_build(struct sk_buff * skb, struct options * opt,
sk_buff222net/ipv4/ip.cstruct sk_buff * skb) {
sk_buff328net/ipv4/ip.cstatic void ip_options_fragment(struct sk_buff * skb) {
sk_buff365net/ipv4/ip.cint ip_options_compile(struct options * opt, struct sk_buff * skb)
sk_buff590net/ipv4/ip.cstatic int ip_send(struct sk_buff *skb, __u32 daddr, int len, struct device *dev, __u32 saddr)
sk_buff614net/ipv4/ip.cstatic int ip_send_room(struct sk_buff *skb, __u32 daddr, int len, struct device *dev, __u32 saddr)
sk_buff642net/ipv4/ip.cint ip_build_header(struct sk_buff *skb, __u32 saddr, __u32 daddr,
sk_buff800net/ipv4/ip.cstatic struct ipfrag *ip_frag_create(int offset, int end, struct sk_buff *skb, unsigned char *ptr)
sk_buff938net/ipv4/ip.cstatic struct ipq *ip_create(struct sk_buff *skb, struct iphdr *iph, struct device *dev)
sk_buff1026net/ipv4/ip.cstatic struct sk_buff *ip_glue(struct ipq *qp)
sk_buff1028net/ipv4/ip.cstruct sk_buff *skb;
sk_buff1094net/ipv4/ip.cstatic struct sk_buff *ip_defrag(struct iphdr *iph, struct sk_buff *skb, struct device *dev)
sk_buff1099net/ipv4/ip.cstruct sk_buff *skb2;
sk_buff1294net/ipv4/ip.cstatic void ip_fragment(struct sock *sk, struct sk_buff *skb, struct device *dev, int is_frag)
sk_buff1299net/ipv4/ip.cstruct sk_buff *skb2;
sk_buff1480net/ipv4/ip.cstatic void ip_encap(struct sk_buff *skb, int len, struct device *out, __u32 daddr)
sk_buff1521net/ipv4/ip.cint ip_forward(struct sk_buff *skb, struct device *dev, int is_frag,
sk_buff1526net/ipv4/ip.cstruct sk_buff *skb2;  /* Output packet */
sk_buff1535net/ipv4/ip.cstruct sk_buff *skb_in = skb;  /* So we can remember if the masquerader did some swaps */
sk_buff1887net/ipv4/ip.cint ip_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff2150net/ipv4/ip.cstruct sk_buff *skb1;
sk_buff2185net/ipv4/ip.cstruct sk_buff *skb2;
sk_buff2244net/ipv4/ip.cstruct sk_buff *skb2=skb_clone(skb, GFP_ATOMIC);
sk_buff2306net/ipv4/ip.cstatic void ip_loopback(struct device *old_dev, struct sk_buff *skb)
sk_buff2310net/ipv4/ip.cstruct sk_buff *newskb=dev_alloc_skb(len+dev->hard_header_len+15);
sk_buff2358net/ipv4/ip.cstruct sk_buff *skb, int free)
sk_buff3204net/ipv4/ip.cstruct sk_buff *skb=sock_alloc_send_skb(sk, length+15+dev->hard_header_len,0, 0,&error);
sk_buff3343net/ipv4/ip.cstruct sk_buff * skb;
sk_buff3574net/ipv4/ip.cstruct sk_buff *skb=alloc_skb(sizeof(struct netlink_rtinfo), GFP_ATOMIC);
sk_buff578net/ipv4/ip_fw.cstatic struct sk_buff *revamp(struct sk_buff *skb, struct device *dev, struct ip_masq *ftp)
sk_buff582net/ipv4/ip_fw.cstruct sk_buff *skb2;
sk_buff774net/ipv4/ip_fw.cvoid ip_fw_masquerade(struct sk_buff **skb_ptr, struct device *dev)
sk_buff776net/ipv4/ip_fw.cstruct sk_buff  *skb=*skb_ptr;
sk_buff892net/ipv4/ip_fw.cint ip_fw_demasquerade(struct sk_buff *skb_ptr)
sk_buff62net/ipv4/ipip.cint ipip_rcv(struct sk_buff *skb, struct device *dev, struct options *opt, 
sk_buff100net/ipv4/ipmr.cstruct sk_buff *skb;
sk_buff217net/ipv4/ipmr.cstruct sk_buff *skb;
sk_buff254net/ipv4/ipmr.cstatic void ipmr_cache_report(struct sk_buff *pkt)
sk_buff256net/ipv4/ipmr.cstruct sk_buff *skb=alloc_skb(128, GFP_ATOMIC);
sk_buff297net/ipv4/ipmr.cstatic void ipmr_cache_unresolved(struct mfc_cache *cache, vifi_t vifi, struct sk_buff *skb, int is_frag)
sk_buff702net/ipv4/ipmr.cstatic void ipmr_queue_xmit(struct sk_buff *skb, struct vif_device *vif, struct device *in_dev, int frag)
sk_buff723net/ipv4/ipmr.cvoid ipmr_forward(struct sk_buff *skb, int is_frag)
sk_buff726net/ipv4/ipmr.cstruct sk_buff *skb2;
sk_buff73net/ipv4/packet.cint packet_rcv(struct sk_buff *skb, struct device *dev,  struct packet_type *pt)
sk_buff148net/ipv4/packet.cstruct sk_buff *skb;
sk_buff292net/ipv4/packet.cstruct sk_buff *skb;
sk_buff92net/ipv4/rarp.cstatic int rarp_rcv(struct sk_buff *, struct device *, struct packet_type *);
sk_buff198net/ipv4/rarp.cstatic int rarp_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff116net/ipv4/raw.cint raw_rcv(struct sock *sk, struct sk_buff *skb, struct device *dev, __u32 saddr, __u32 daddr)
sk_buff274net/ipv4/raw.cstruct sk_buff *skb;
sk_buff560net/ipv4/tcp.cstatic struct sk_buff *tcp_find_established(struct sock *s)
sk_buff562net/ipv4/tcp.cstruct sk_buff *p=skb_peek(&s->receive_queue);
sk_buff571net/ipv4/tcp.cwhile(p!=(struct sk_buff *)&s->receive_queue);
sk_buff580net/ipv4/tcp.cstatic struct sk_buff *tcp_dequeue_established(struct sock *s)
sk_buff582net/ipv4/tcp.cstruct sk_buff *skb;
sk_buff601net/ipv4/tcp.cstruct sk_buff *skb;
sk_buff632net/ipv4/tcp.cstruct sk_buff * skb;
sk_buff974net/ipv4/tcp.cstruct sk_buff *skb;
sk_buff1101net/ipv4/tcp.cstruct sk_buff *skb;
sk_buff1160net/ipv4/tcp.cwhile(skb != (struct sk_buff *)&sk->receive_queue);
sk_buff1325net/ipv4/tcp.cstatic void tcp_send_skb(struct sock *sk, struct sk_buff *skb)
sk_buff1444net/ipv4/tcp.cstruct sk_buff * tcp_dequeue_partial(struct sock * sk)
sk_buff1446net/ipv4/tcp.cstruct sk_buff * skb;
sk_buff1466net/ipv4/tcp.cstruct sk_buff *skb;
sk_buff1478net/ipv4/tcp.cvoid tcp_enqueue_partial(struct sk_buff * skb, struct sock * sk)
sk_buff1480net/ipv4/tcp.cstruct sk_buff * tmp;
sk_buff1511net/ipv4/tcp.cstruct sk_buff *buff;
sk_buff1653net/ipv4/tcp.cstruct sk_buff *skb;
sk_buff1654net/ipv4/tcp.cstruct sk_buff *send_tmp;
sk_buff1998net/ipv4/tcp.cstruct sk_buff *buff;
sk_buff2079net/ipv4/tcp.cstruct sk_buff *skb;
sk_buff2258net/ipv4/tcp.cstruct sk_buff * skb;
sk_buff2292net/ipv4/tcp.cwhile (skb != (struct sk_buff *)&sk->receive_queue);
sk_buff2513net/ipv4/tcp.cstruct sk_buff *buff;
sk_buff2698net/ipv4/tcp.cstruct sk_buff *buff;
sk_buff2871net/ipv4/tcp.cstatic void tcp_conn_request(struct sock *sk, struct sk_buff *skb,
sk_buff2875net/ipv4/tcp.cstruct sk_buff *buff;
sk_buff3187net/ipv4/tcp.cstruct sk_buff *skb;
sk_buff3234net/ipv4/tcp.cstruct sk_buff *skb;
sk_buff3413net/ipv4/tcp.cstruct sk_buff *skb;
sk_buff3414net/ipv4/tcp.cstruct sk_buff *skb2;
sk_buff3415net/ipv4/tcp.cstruct sk_buff *wskb = NULL;
sk_buff3580net/ipv4/tcp.cstruct sk_buff *oskb;  
sk_buff3924net/ipv4/tcp.cstatic int tcp_fin(struct sk_buff *skb, struct sock *sk, struct tcphdr *th)
sk_buff4011net/ipv4/tcp.cextern __inline__ int tcp_data(struct sk_buff *skb, struct sock *sk, 
sk_buff4014net/ipv4/tcp.cstruct sk_buff *skb1, *skb2;
sk_buff4216net/ipv4/tcp.cskb2 != (struct sk_buff *)&sk->receive_queue;
sk_buff4414net/ipv4/tcp.cstruct sk_buff *skb;
sk_buff4472net/ipv4/tcp.cstruct sk_buff *buff;
sk_buff4688net/ipv4/tcp.cstatic int tcp_std_reset(struct sock *sk, struct sk_buff *skb)
sk_buff4721net/ipv4/tcp.cint tcp_rcv(struct sk_buff *skb, struct device *dev, struct options *opt,
sk_buff5133net/ipv4/tcp.cstruct sk_buff *buff,*skb;
sk_buff137net/ipv4/udp.cstatic int udp_deliver(struct sock *sk, struct udphdr *uh, struct sk_buff *skb, struct device *dev, long saddr, long daddr, int len);
sk_buff439net/ipv4/udp.cstruct sk_buff *skb;
sk_buff479net/ipv4/udp.cstruct sk_buff *skb;
sk_buff578net/ipv4/udp.cint udp_rcv(struct sk_buff *skb, struct device *dev, struct options *opt,
sk_buff656net/ipv4/udp.cstruct sk_buff *skb1;
sk_buff704net/ipv4/udp.cstatic int udp_deliver(struct sock *sk, struct udphdr *uh, struct sk_buff *skb, struct device *dev, long saddr, long daddr, int len)
sk_buff179net/ipx/af_ipx.cstruct sk_buff  *skb;
sk_buff327net/ipx/af_ipx.cipxitf_def_skb_handler(struct sock *sock, struct sk_buff *skb)
sk_buff346net/ipx/af_ipx.cipxitf_demux_socket(ipx_interface *intrfc, struct sk_buff *skb, int copy) 
sk_buff350net/ipx/af_ipx.cstruct sk_buff  *skb1 = NULL, *skb2 = NULL;
sk_buff427net/ipx/af_ipx.cstatic struct sk_buff *
sk_buff428net/ipx/af_ipx.cipxitf_adjust_skbuff(ipx_interface *intrfc, struct sk_buff *skb)
sk_buff430net/ipx/af_ipx.cstruct sk_buff  *skb2;
sk_buff472net/ipx/af_ipx.cipxitf_send(ipx_interface *intrfc, struct sk_buff *skb, char *node)
sk_buff561net/ipx/af_ipx.cstatic int ipxrtr_route_skb(struct sk_buff *);
sk_buff564net/ipx/af_ipx.cipxitf_rcv(ipx_interface *intrfc, struct sk_buff *skb)
sk_buff994net/ipx/af_ipx.cstruct sk_buff *skb;
sk_buff1048net/ipx/af_ipx.cipxrtr_route_skb(struct sk_buff *skb)
sk_buff1654net/ipx/af_ipx.cint ipx_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff1750net/ipx/af_ipx.cstruct sk_buff *skb;
sk_buff1839net/ipx/af_ipx.cstruct sk_buff *skb;
sk_buff42net/netlink.cstatic int (*netlink_handler[MAX_LINKS])(struct sk_buff *skb);
sk_buff58net/netlink.cstatic int netlink_err(struct sk_buff *skb)
sk_buff69net/netlink.cint netlink_donothing(struct sk_buff *skb)
sk_buff82net/netlink.cstruct sk_buff *skb;
sk_buff95net/netlink.cstruct sk_buff *skb;
sk_buff184net/netlink.cint netlink_attach(int unit, int (*function)(struct sk_buff *skb))
sk_buff201net/netlink.cint netlink_post(int unit, struct sk_buff *skb)
sk_buff244net/netrom/af_netrom.cstruct sk_buff *skb;
sk_buff838net/netrom/af_netrom.cstruct sk_buff *skb;
sk_buff909net/netrom/af_netrom.cint nr_rx_frame(struct sk_buff *skb, struct device *dev)
sk_buff1031net/netrom/af_netrom.cstruct sk_buff *skb;
sk_buff1163net/netrom/af_netrom.cstruct sk_buff *skb;
sk_buff1279net/netrom/af_netrom.cstruct sk_buff *skb;
sk_buff53net/netrom/nr_dev.cint nr_rx_ip(struct sk_buff *skb, struct device *dev)
sk_buff75net/netrom/nr_dev.cstatic int nr_header(struct sk_buff *skb, struct device *dev, unsigned short type,
sk_buff108net/netrom/nr_dev.cunsigned long raddr, struct sk_buff *skb)
sk_buff164net/netrom/nr_dev.cstatic int nr_xmit(struct sk_buff *skb, struct device *dev)
sk_buff53net/netrom/nr_in.cstatic int nr_queue_rx_frame(struct sock *sk, struct sk_buff *skb, int more)
sk_buff55net/netrom/nr_in.cstruct sk_buff *skbo, *skbn = skb;
sk_buff97net/netrom/nr_in.cstatic int nr_state1_machine(struct sock *sk, struct sk_buff *skb, int frametype)
sk_buff143net/netrom/nr_in.cstatic int nr_state2_machine(struct sock *sk, struct sk_buff *skb, int frametype)
sk_buff171net/netrom/nr_in.cstatic int nr_state3_machine(struct sock *sk, struct sk_buff *skb, int frametype)
sk_buff174net/netrom/nr_in.cstruct sk_buff *skbn;
sk_buff310net/netrom/nr_in.cint nr_process_rx_frame(struct sock *sk, struct sk_buff *skb)
sk_buff49net/netrom/nr_out.cvoid nr_output(struct sock *sk, struct sk_buff *skb)
sk_buff51net/netrom/nr_out.cstruct sk_buff *skbn;
sk_buff104net/netrom/nr_out.cstatic void nr_send_iframe(struct sock *sk, struct sk_buff *skb)
sk_buff120net/netrom/nr_out.cstruct sk_buff *skb, *skbn;
sk_buff143net/netrom/nr_out.cstruct sk_buff *skb, *skbn;
sk_buff202net/netrom/nr_out.cvoid nr_transmit_buffer(struct sock *sk, struct sk_buff *skb)
sk_buff647net/netrom/nr_route.cint nr_route_frame(struct sk_buff *skb, ax25_cb *ax25)
sk_buff49net/netrom/nr_subr.cstruct sk_buff *skb;
sk_buff79net/netrom/nr_subr.cstruct sk_buff *skb;
sk_buff102net/netrom/nr_subr.cstruct sk_buff *skb, *skb_prev = NULL;
sk_buff153net/netrom/nr_subr.cstruct sk_buff *skb;
sk_buff246net/netrom/nr_subr.cvoid nr_transmit_dm(struct sk_buff *skb)
sk_buff248net/netrom/nr_subr.cstruct sk_buff *skbn;
sk_buff154net/unix/af_unix.cstruct sk_buff *skb;
sk_buff425net/unix/af_unix.cstruct sk_buff *skb;
sk_buff574net/unix/af_unix.cstruct sk_buff *skb;
sk_buff660net/unix/af_unix.cstruct sk_buff *skb;
sk_buff702net/unix/af_unix.cif(size>(sk->sndbuf-sizeof(struct sk_buff))/2)  /* Keep two messages in the pipe so it schedules better */
sk_buff706net/unix/af_unix.csize=(sk->sndbuf-sizeof(struct sk_buff))/2;
sk_buff784net/unix/af_unix.cstruct sk_buff *skb;
sk_buff951net/unix/af_unix.cstruct sk_buff *skb;